Влияние сайтов на одном IP на позиции
Приоритет: Низкий
Содержание:
IP-адрес сайта – это сетевой номер сайта, который равен IP-адресу сервера, на который он загружен. Любой сайт в интернете имеет свой IP и если на Вашем имеются «вредные соседи», то стоит рассмотреть возможность переезда сайта на другой хостинг, так как это может влиять на позиции.
Кто такие «вредные соседи»?
Вредные соседи — это некачественные сайты, которые распологаются на одном IP с Вашим. Например:
- Сайты с тематикой для взрослых;
- Сайты, зараженные вирусами;
- Заблокированные сайты на законодательном уровне;
- Спамные ресурсы;
- Сайты, находящиеся под фильтрами поисковых систем.
Какие параметры хостинга влияют на SEO?
- Uptime – показатель, отражающий в процентах время бесперебойной работы сайта от общего времени.
- Время ответа сервера – параметр, отвечающий за скорость загрузки страниц на сайте. Хорошим показателем считается ответ, не превышающий 200 мс.
- Местоположение сервера. Если хостинг находится достаточно далеко от пользователя, то это может повлиять на время загрузки страниц. Желательно, чтобы сервер располагался в том же регионе, где и продвигается сайт.
Как проверить сайты на одном IP с нашим?
Перед проверкой, необходимо узнать IP-адрес Вашего сайта. Сделать это можно с помощью сервиса 2ip.ru.
1. Для этого перейдите по ссылке, введите доменное имя сайта в поле ниже и нажмите «Проверить»:
2. По окончанию проверки в поле на картинке будет отражен IP-адрес сайта:
Скопируйте его в буфер обмена и переходите к следующему шагу.
3. Далее необходимо перейти в сервис «Сайты на одном IP», вставить IP-адрес, ввести капчу и нажать «Поиск»:
4. В поле ниже появятся все сайты, которые находятся на одном IP с Вашим:
Спасибо, что дочитали до конца. Переходите к следующей инструкции.
Выделенный IP-адрес — подключить в Москве
В бизнесе выделенный IP-адрес играет важную роль в обеспечении безопасности данных, положительно влияет на скорость передачи информации, открывает новые возможности в маркетинговых исследованиях. Собственный идентификатор активно применяют компании для создания защищенного соединения при работах с финансовыми инструментами, почтовыми программами и белыми веб-ресурсами. Это необходимое условие для доступа на некоторые сайты.
Подключить выделенный IP-адрес
Чем отличается выделенный IP-адрес от тех, которые предоставляются автоматически провайдером? На сервере одновременно размещаются сотни сайтов с одинаковым идентификатором. «Черные» операции по продвижению, рассылке спама владельцами других сайтов негативно отражаются на всех остальных ресурсах, размещенных на площадке. Это приводит к их блокировке, исключению из лидирующих позиций в поисковой выдаче, внесению в черный список. Подобные действия отрицательно влияют на имидж компании, косвенно сказываются на материальной прибыли.
Чтобы избежать подобных проблем, необходимо подключить выделенный IP-адрес. Это надежный канал для выхода в интернет из любой точки мира. Его использование повышает качество соединения без покупки дополнительного оборудования. Если организации важно сохранить стабильную работу сайта в любых условиях, следует приобрести личный IP-адрес.
Выделенный IP-адрес стоимость
Выделенный IP-адрес – выбор организаций, стремящихся обеспечить защищённость и продуктивность корпоративной сети. Он благоприятно сказывается на скорости передачи объемной информации, за счет шифрования исключает перехват паролей и других данных злоумышленниками и минимизирует вероятность доступа к конфиденциальным сведениям посторонних лиц. Это положительно отражается на общей эффективности работы фирмы.
Преимущества использования выделенного IP-адреса:
- доступ к любому мировому web-ресурсу;
- низкая вероятность перехвата паролей;
- защищенный канал передачи информации, шифрование исходящих и входящих сообщений;
- полный контроль над веб-ресурсом, настройка и запуск с любого компьютера, ограничение доступа на сайт определенным пользователям.
Выделенный IP-адрес, стоимость которого можно узнать у менеджера компании «Теледисконт», стоит приобрести организациям, на ресурсах которых реализуются важные бизнес-процессы, происходит регулярный обмен объемными файлами. Это поможет избежать сбоев в системе и утечки информации, обозначить права доступа для разных пользователей, обеспечить высокую скорость соединения.
Купить выделенный IP-адрес
Увеличение эффективности бизнес-процессов и продуктивности функционирования сети, высокий уровень безопасности соединения – ключевые причины популярности услуги «выделенный IP-адрес». Она успешно помогает решать широкий спектр задач.
Примеры использования выделенного IP-адреса:
- Подключение к интернету в любой точке мира, передача конфиденциальных данных сотрудникам. Использование общественной сети Wi-FI для обозначенных целей создает высокий риск перехвата рабочей информации злоумышленниками. IP-адрес – идентификатор личности, необходимый для авторизации администратора, модератора и других участников при подключении к базам данных.
- Создание собственной локальной сети с высокой скоростью отправки файлов и надежным шифрованием.
- Запуск сайта с собственного компьютера.
- Выделенный IP-адрес необходим для функционирования файлообменников и FTP-сервера, доступа к некоторым ресурсам.
- Мероприятия и анализ результатов в области маркетинга. Приобретение выделенного IP-адреса в этой сфере получило широкое распространение. Специалисты могут использовать разные почтовые сервисы для рассылки информационных и рекламных сообщений подписчикам, не беспокоясь о негативной репутации; оценивать продвижение и поисковые позиции сайта в другой стране и городе, меняя IP-адрес.
Купить выделенный IP-адрес можно в компании «Теледисконт». Для консультации и оформления заявки свяжитесь с менеджером по телефону.
что это значит, зачем нужен сбор
В комплекс интернет-раскрутки сайта входит, в том числе, анализ эффективности продвижения. Съем позиций сайта — это фиксирование положения веб-ресурса в поисковой выдаче по популярным ключевым словам или фразам на момент проведения анализа. Оценка текущих результатов выдачи позволяет определить, насколько эффективна выбранная рекламная стратегия, что нужно поменять или откорректировать. Оптимизация необходима для снижения рекламных затрат на раскрутку бренда или компании в Интернете.
Что такое съем позиций веб-сайта
Съем позиций сайта простыми словами — это вычисление текущего положения онлайн-ресурса по ключевым запросам. Позиции (место в результате поисковой выдачи) определяются роботами поисковых систем на основании многих параметров для различных ключевых фраз, которые вводят пользователи в строку поиска для нахождения нужного товара или услуги.
Какие параметры учитывают ПС при формировании позиций онлайн-ресурса
Поисковые системы Яндекс и Google постоянно обновляют алгоритмы ранжирования — оценки качества веб-сайтов, интернет-магазинов, лендингов и других ресурсов.
Для того чтобы предоставить пользователю наиболее релевантные результаты, роботы поисковых систем оценивают сотни различных характеристик. В Табл. 1 приведены основные факторы, которые влияют на рейтинг сайтов.
Табл. 1. Влияние различных параметров на позиции сайта в органическом поиске
Параметр ранжирования, влияющий на позиции сайта | Характеристики | Рекомендации по применению |
Контент | Текстовые блоки с описанием продукции, новости, полезные статьи по тематике. Изображения товаров, фотографии, инфографика. Видеоматериалы по профилю | Нужно наполнять веб-сайт полезным и уникальным контентом. Чем точнее содержимое отвечает на запрос пользователя, тем выше поднимется ресурс в выдаче по данному ключу. Актуальность и экспертность контента напрямую влияет на положительный рейтинг страницы по запросам, вписанным в текст |
Ссылочная масса | Внешние ссылки с других ресурсов. Внутренние ссылки, используемые для перелинковки между страницами веб-ресурса | При закупке ссылок с сайтов-доноров нужно следить за их качеством. Качественный донор — это сайт с похожей тематикой, высокой посещаемостью и релевантным наполнением. Внутренние ссылки расставляются без переспама. Наращивать внутреннюю и внешнюю ссылочную массу нужно постепенно |
Поведенческие факторы | Это параметры, которые отображают поведение пользователя на ресурсе. К данной категории относится глубина просмотра (сколько страниц пролистано), время нахождения на сайте, повторные посещения и пр. | Для улучшения поведенческих факторов, влияющих на позиции веб-сайтов, необходимо при разработке сайта продумывать удобную и понятную структуру, ненавязчивый дизайн, подбирать читабельные шрифты. |
Возраст ресурса | Время существования веб-сайта | Многие вновь созданные ресурсы попадают под фильтры поисковых систем. Они индексируются, но не появляются в поисковой выдаче. После проверки на релевантность и отсутствие запрещенных способов продвижения сайт начинает появляться в результатах выдачи |
Адаптация под разные устройства | Корректное отображение веб-ресурса на разных устройствах — компьютере, мобильном телефоне, планшете | Наличие мобильной версии в настоящее время очень влияет на рейтинг сайта в поисковых системах. Больше половины пользователей, которые ищут товары в интернет-магазинах, оформляют покупки через мобильное устройство |
Зачем нужно мониторить позиции веб-сайта
Есть ряд причин делать регулярный съем (определение) позиций сайта:
- Анализ эффективности выбранных маркетинговых каналов и инструментов интернет-продвижения. Если позиции сайта высокие — значит, рекламная стратегия выбрана верно. При низких позициях ресурса нужно разбираться, что именно служит причиной неудовлетворительного результата. Это может быть низкокачественный контент (неуникальные тексты, переспам ключевыми фразами, нечитабельная структура и пр.), неудобная структура ресурса, слишком яркий и непонятный дизайн и пр.
- Эффективность продвижения конкурентов. Проводить анализ конкурентов полезно, хотя бы потому, что можно изучить, благодаря чему конкурентный сайт находится на высоких позициях в поисковой выдаче. Делая анализ успешных конкурентов, можно подсмотреть, на какие тематики написаны тексты, как используется ссылочная масса, как организована структура и пр.
Проводя развернутый анализ позиций своего сайта и конкурентных ресурсов, можно найти слабые места и устранить их. Улучшая характеристики, влияющие на позиции веб-сайта, можно значительно увеличить выручку от продаж, снизить расходы на SEO и другую интернет-рекламу.
Инструментарий проверки позиций онлайн-ресурса
Проверка позиции сайта в поисковых системах Google и Яндекс делается регулярно. Ее можно проводить раз в неделю и реже — в зависимости от стратегических целей и задач компании.
С помощью каких инструментов можно проверить позиции сайта:
- SEO-сервисы. Это бесплатные или платные ресурсы, которые осуществляют съем позиций веб-сайтов.
- Специальные онлайн-агрегаторы. Такие платформы не только проводят мониторинг позиций веб-ресурсов, но и предлагают услуги по оптимизации.
Ручная проверка позиций
Некоторые владельцы веб-сайтов проверяют позиции своих ресурсов вручную, вбивая в поисковик ключевые запросы и занося их в таблицу. Данный способ является бесплатным, но требует больших временных затрат и не отличается высокой точностью результатов. Низкая точность обусловлена тем, что поисковые системы учитывают множество дополнительных факторов, в том числе историю запросов, которые делались с вашего рабочего компьютера. Приемлемую точность результатов можно получить, включив в своем браузере режим «инкогнито». Вручную можно проверить небольшое количество ключевых фраз.
Функции автоматизированных сервисов по снятию позиций веб-сайтов
Эффективный онлайн-сервис по снятию позиций сайтов должен выполнять такие основные функции:
- Поддержка крупных поисковых сетей.
- Возможности автоматического мониторинга онлайн-ресурсов.
- Наличие опции гео-позиционирования (при необходимости — анализа эффективности рекламы по разным регионам).
- Выгрузка развернутых отчетов по текущим позициям онлайн-ресурса.
- Сбор статистических данных по периодам, хранение статистической и аналитической информации.
- Возможность анализа конкурентов, сравнения позиций по ключевым запросам и пр.
Проверка позиций сайтов с помощью RUSH ANALYTICS
Для проверки позиций веб-сайта рекомендуется применять RUSH ANALYTICS. Это удобный и эффективный сервис поисковой аналитики, который предоставляет широкий спектр услуг для достижения целей комплексного онлайн-продвижения сайтов, интернет-магазинов, лендингов.
Проверить позиции сайта конкурента или собственного ресурса можно, перейдя по ссылке
https://www.rush-analytics.ru/land/proverka-pozicij-sajta-v-poiskovyh-sistemah
С помощью этого инструмента можно выполнить такие задачи:
- Съем позиций в Яндексе, Гугле, других поисковых системах. Можно использовать неограниченное количество запросов и ключевых слов, группируя их по определенным характеристикам. Локальный мониторинг дает возможность снимать позиции в разных странах и регионах, на разных языках.
- Проверка сайта конкурента. Через платформу можно бесплатно проверить до 10 конкурентных веб-ресурсов. Анализ конкурентов позволяет оценить свои сильные и слабые стороны, возможности и риски, и выстроить стратегию расширения деятельности компании в своем сегменте. Конкурентный анализ также необходим при выходе на новые рынки.
- Получать развернутые отчеты с удобной визуализацией. Такой вид отчетности наглядно показывает тенденции роста или спада позиций. На основе статистических и аналитических данных можно разработать план по оптимизации онлайн-продвижения и роста по основным ключам.
Преимущества сервиса RUSH ANALYTICS
Сервис поисковой аналитики предоставляет пользователям множество возможностей. Для выполнения задач по оптимизации предоставляются детальные и понятные руководства к действию. Можно также задать вопросы консультантам системы в удобном онлайн-режиме. Функции и возможности сервиса сведены в Табл. 2.
Табл. 2. Возможности сервиса RUSH ANALYTICS
Функции | Возможности |
Съем позиций в разных поисковых системах | Работает с поисковыми системами Яндекс, Гугл. Без ограничений регионов |
Адаптация под разные устройства | Выполняется проверка текущих позиций веб-ресурса с мобильного устройства, с персонального компьютера |
Неограниченное количество запросов | Можно ставить задачи, в которые входит до 100 000 ключевых слов. Есть возможность добавления поисковых запросов |
Анализ сниппетов | Есть возможность мониторить сниппеты. Сниппет можно мониторить по месту в выдаче, релевантности поисковому запросу, внешней привлекательности этого блока текста |
Детальные отчеты | Отчет формируется в развернутом виде в файле Excel |
Сортировка данных | Есть удобные фильтры для сортировки обрабатываемой информации |
Универсальность анализа | Сервис подходит для анализа позиций сайтов с кириллическим доменным именем |
Как проверить сайт через RUSH ANALYTICS — алгоритм работы
- Создание задачи. Добавление запросов, групп, URL в задачу.
- Разбивка запросов на группы.
- Используйте руководство по работе в веб-интерфейсе.
- Подбирайте необходимые модули с учетом задач продвижения.
- Получайте регулярные отчеты по позициям, сформированные под индивидуальные настройки проекта.
Создание задачи с добавлением запросов и URL
На этом этапе создается новая задача. Указывается название задачи (по имени сайта или бренда). Прописывается URL сайта. Для сбора информации о позициях выбирается опция «Точный URL веб-сайта». На этом этапе есть возможность подключить аналитические сервисы поисковиков Яндекс и Гугл.
Разбивка запросов на группы
Для анализа эффективности продвижения отдельных страниц рекомендуется разбивка ключевых запросов на группы. Классификация выполняется по определенным параметрам — товарным категориям и подкатегориям, типам страниц, популярности (высокочастотные, среднечастотные, низкочастотные) и пр. Кластеризация (группировка) по определенным признакам дает более точное представление о том, почему позиции по тому или иному запросу растут или падают.
Руководство по работе в онлайн-интерфейсе
Платформа дает широкие функциональные возможности для анализа онлайн-ресурсов. Описание функциональных возможностей и алгоритмов работы можно найти в веб-интерфейсе задачи.
Какие возможности дает этот функционал:
- Редактирование поставленной задачи. Эта опция включает возможность изменения названия задачи, анализируемого урл-адреса сайта, корректировки периодов съема позиций, перечня ключевых запросов, конкурентных онлайн-ресурсов, которые нужно отслеживать.
- Просмотр собранных данных. Графики показывают источники (поисковые системы) и период сбора данных, позиции (ТОП) по всем или отдельно выбранным ключевым фразам. Отображается регион, сортировка по группам (если выбрана такая опция). По конкретным ключевым запросам можно отследить целевые URL-адреса. Важным параметром является возможность увидеть объем трафика (количество посетителей), которые зашли по выбранному поисковому запросу.
- Возможность выбрать разные типы визуализации данных. Можно выбрать панели с разными форматами отображения данных. Основные виды: По умолчанию, История позиций, История URLов, История сниппетов.
- Возможность сортировки информации по URL, ключевым словам, частотности, группам, дате, позициям.
- Доступ по гостевой ссылке. Скопировав гостевую ссылку, можно отправить ее другому пользователю. Это удобная опция для SEO-специалистов, которые ведут несколько проектов для своих клиентов. Гость сможет просматривать отчеты по съему позиций веб-сайта, даже не регистрируясь на аналитической платформе RUSH ANALYTICS.
- Удобный просмотр позиций. Видимость запросов показывается в графиках для конкретного поискового запроса или группы запросов. График можно построить с отображением даты оценки, региона, поисковой системы, настраивая видимость данных по своему усмотрению.
- Конкурентный анализ. Модуль дает возможность проверять позиции конкурентных сайтов, мониторить видимость процента ключевых слов ТОПе (первая тройка, пятерка, десятка). Таким образом можно отслеживать лидеров своей ниши по отчетам, сформированным в виде гистограмм.
- Получение развернутых отчетов. Можно сформировать упрощенный отчет, в котором показываются дата сбора информации, ключевые слова, группы запросов, адреса анализируемых веб-сайтов. В полный отчет включаются графики задач, история URL, история сниппетов и позиций.
Съем позиций сайта необходим для отслеживания эффективности интернет-раскрутки. На выход в ТОП по основным ключевым запросам влияет множество внешних и внутренних факторов, активность конкурентов и интересы целевых групп. Поэтому нужно постоянно мониторить свои позиции и корректировать рекламные кампании с учетом текущей ситуации в своей нише.
Почему упали позиции сайта. Сайт на последних позициях.
Вы обнаружили, что у вашего сайта низкие позиции. Может быть две разных ситуации: у сайта просто низкие позиции и никогда не были высокими, или у сайта упали позиции.
Если у вас просто низкие позиции и вы никогда не продвигали сайт, то скорей всего всё справедливо, надо просто заняться продвижением.
А вот если у вас не получается продвинуться или были хорошие позиции и упали, то очевидно, надо разбираться в чем причина. Надеюсь моя статья вам поможет.
На позиции влияют разные факторы, которые мы будем по порядку проверять.
Определяем тип проблемы
Рассмотрим разные ситуации снижения позиций:
- Несколько запросов потеряли позиции. Вероятные проблемы:
- Фильтр за переоптимизацию
- Текстовая релевантность
- Недостаток ссылок
- Все запросы с документа потеряли позиции. Вероятные проблемы:
- Фильтр на документ
- Изменился тип выдачи
- Технические проблемы
- Весь сайт потерял позиции. Вероятные проблемы:
- Санкции ко всему сайту
- Технические проблемы
- Поведенческие и коммерческие факторы
Поднимаем историю действий
Первым делом надо посмотреть, что последнее время делали со страницей: меняли тексты, выкладывали фотографии, удалили или добавили информацию. Если что-то менялось и сайт упал в позициях после этого, то причина вероятно в изменениях.
Что могло поменяться вместе с контентом? Навскидку:
- Мог увеличиться показатель отказов, т.к. новый контент не устраивает пользователей (цены например).
- Мог измениться тип страницы, была информационная, стала коммерческая (например, появились цены и кнопка заказать).
- Изменилась текстовая релевантность, если добавили много нового текста.
- Можно получить фильтр за переоптимизацию, если перестарались с текстами.
Если же ничего не меняли, предположений нет, то диагностируем по порядку.
Проверка санкций и фильтров
Первым делом проверяем наличие нарушений, санкций и проблем безопасности в кабинетах вебмастеров Яндекс и Google. В случае серьезных нарушений, там будет соответствующее сообщение и позиции действительно могут резко упасть.
Кабинет Яндекс.Вебмастер — диагностика сайтаКабинет Google Search Console — проблемы безопасностиТакже, можно проверить конкретную страницу:
Проверка отдельной страницыПроверяем последние апдейты в ПС
Дальше смотрим, не было ли недавно серьезных изменений в поисковой выдаче. Если они были, то вероятней всего изменился алгоритм и формула ранжирования, поэтому позиции сайта снизились. В таком случае, если никаких других проблем нет, надо будет заново делать анализ ТОП и корректировать документ (или добывать ссылки).
Апдейты можно посмотреть:
Анализатор апдейтов AnalyzeThisНа сервисе AnalyzeThis вообще много всяких анализаторов поисковых систем, полезно к изучению. А в отчете по апдейтам можно посмотреть изменения выдачи по конкретным словам, по которым работает анализатор.
ПиксельТулс самый красивый анализатор и что удобно, позволяет выбирать тематику запросов, для точной диагностики. Например, вы можете обнаружить что во всей тематике меняется поисковая выдача, старые сайты теряют позиции, а на первые места выходят другие.
Анализатор апдейтов PixelToolsРучная проверка изменений в ТОП-10
Не зависимо от того был апдейт или нет, надо посмотреть как изменилась поисковая выдача по конкретным запросам. В большинстве сервисов проверок позиций есть история выдачи, а особенно здорово, если можно смотреть не конкретный запрос, а по группе.
Это может выглядеть так:
Видно изменение позиции в программе AllSubmitterИли вот так:
История позиций в сервисе SeRankingЕсли вы не отслеживали позиции, то есть сервисы, которые могут показать историю по популярным запросам, например Megaindex
История выдачи по запросу в MegaindexТут мы отмечаем степень изменения выдачи и проверяем какие сайты резко поднялись, у каких позиции резко упали. Сильно упали позиции только по нашему сайту или пострадал весь ТОП-10.
Очевидно, если упал только наш сайт, значит проблема у нас. Если сильно изменилась поисковая выдача, то вероятно изменился алгоритм или интент запроса.
Проверка типа документа и типа выдачи
Поисковые запросы бывают разных видов и еще у запросов есть интент — потребность или задача, которую хочет решить пользователь.
Поисковая выдача соответствует интенту запроса. Если пользователи вводят запрос чтобы купить, то в ТОП-10 магазины, если скачать — то сайты, где можно скачать. Если почитать, то статьи.
Поведение пользователей дает сигнал о том, какая должна быть выдача. Поисковик измеряет качество выдачи и корректирует ее. Если оказалось, что у запроса другой интент, например был информационный, стал коммерческий, поисковая выдача поменяется.
Пример. Был у меня клиент — медцентр. Долго мы стояли в ТОП-5 по запросам связанным с УЗИ разных органов. Но в какой-то момент Яндекс стал выдавать вместо сайтов клиник сайты агрегаторов услуг. Всё, ничего сделать было нельзя, просто отказались от этой группы запросов (при этом разместились в этих агрегаторах).
С интентом разобрались. Еще влияет тип страницы или сайта. Например пользователь задает название товара, а в выдаче стоят только страницы категорий. В таком случае товарную страницу не продвинуть и наоборот. Или в ТОП-10 одни интернет-магазины, значит сайт услуг не продвинуть.
Еще влияет наполнение страницы, другими словами из каких-элементов она состоит. Может быть в поиске у всех подробные таблицы с ценами, а у вас текст. Значит надо тоже делать таблицу с ценами. Может быть надо добавить галерею, может быть видео, блок вопрос-ответ, калькулятор, больше подзаголовков и т.п..
Быстро проанализировать необходимый тип документа можно с помощью классификатора запросов:
Инструмент классификации запросов от MegaindexНа скриншоте видим, что почти все запросы информационные (доля коммерческих сайтов 0%), значит нет смысла продвигать по ним категории интернет-магазина.
Не привязывайтесь к каким-то определенным характеристикам, лучше анализировать абстрактно. Смотрите, если все в ТОП-10 предлагают одно и тоже, а вы пытаетесь продвинуть другое, то скорей всего ничего не получится. Потому-что люди ищут именно то, что и стоит на первых позициях (алгоритм это понял и так поставил).
Проверка текстовой релевантности
Проверяем, что текст страницы релевантен поисковому запросу. Причем нас интересует не просто плотность ключевых фраз, хотя она тоже важна, но соответствие этой плотности сайтам в ТОП-10.
Поэтому сначала анализируем отдельно страницу, чтобы убедится, что она оптимизирована под запрос, а потом в сравнении с ТОП-10. К сожалению, пока не знаю удобного инструмента, который позволил бы хорошо делать всё вместе.
Анализ плотности ключевых слов
Уточнение. Если анализировать сайты в ТОП-10, то не будет такого, что у них прям у всех одинаковая правильная плотностью ключевых слов (и набор тематических слов, если вспомнить про LSI). В зависимости от типа запроса, текстовая релеватность вообще может быть не определяющим фактором (например для ВЧ запроса намного важней поведенческие факторы).
Проверить плотностью ключевых слов можно с помощью сервисов https://istio.com/ или https://text.ru/:
Проверка текста на istio.comЯ обычно пользуюсь расширением для Chrome — SEO Quake, там кроме прочих инструментов отличный анализатор плотности ключевых слов, в котором можно посмотреть статистику не только по словам, но и по словосочетаниям. Также видно вхождения слов в важные зоны документа (title, description, h2).
Анализ текста в SeoQuakeХотя, вот еще в сервисе Istio классная функция «карта», выделяет размером наиболее повторяющиеся слова, сразу видно SEO-оптимизацию
Карта слов в сервисе IstioПроанализировали текст, смотрим чтобы не было переспама, но при этом по плотности должно быть понятно, что текст отвечает на запрос.
Текстовый анализ ТОПа
Дальше, анализируем ТОП-10, смотрим какая плотность ключевых слов там, а также наиболее часто встречаемые фразы на странице (задающие тематику). Сравниваем со своей страницей и делаем выводы.
Можно было бы делать всё вручную, то есть каждую страницу брать и проверять в каком-нибудь инструменте, но к счастью есть инструменты облегчающие работу.
Анализ текста в MegaindexЭто бесплатный инструмент, более продвинутые аналоги есть почти во всех комплексных сервисах SEO.
Делаем выводы, корректируем явные проблемы. По любому стоит дописать текст, если не хватает тематических слов и по ним есть, что написать.
Однако повторюсь, что сайт может стоять в ТОП-10 не только из-за текстовых характеристик, есть еще ссылки, поведение пользователей.
Сбой релевантной страницы
Иногда причина плохой позиции может быть в том, что изменилась релевантная страница внутри сайта. При этом новая релевантная страница проигрывает по другим факторам конкурентам в ТОП-10 и не может там стоять.
Клиенту допустимо не знать, какие именно страницы стоят по запросам, они больше обращают внимание на позиции. SEO-шник должен всегда контролировать какие страницы стоят в выдаче и особое внимание уделять фразам, по которым релевантные страницы поменялись.
Вот реальный пример, когда сбилась релевантная страница по запросу, сайт вылетел из ТОП-10, а потом после корректировки, вернулся на место.
Смена релевантной страницы привела к падению позиции сайта.Что делать если нестабильна релевантная страница:
- Убедится, что на сайте действительно есть подходящая страница. Бывает позиция скачет, потому что поисковик никак не определится какая именно страница. Иногда надо просто взять и сделать подходящую страницу.
- Проверить на фильтр за переоптимизацию. Если фильтр есть, то снимать.
- Уменьшить плотность ключевых слов на ненужной странице
- Увеличить плотностью ключевых слов на нужной
- Поставить анкорную ссылку с ключевым словом с ненужной на нужную.
Кстати, наложение фильтра за переоптимизацию — очень частая причина смена релевантной страницы.
Проверка на переспам и переоптимизацию
Если в кабинетах вебмастеров нет никаких предупреждений и нарушений, то еще не факт, что нет фильтра или санкций. Фильтр за переспам и переоптимизацию накладывается не заметно. Главным признаком будет, если сайт упал на 20-50 позиций.
Чаще всего фильтр накладывается по конкретным ключевым фразам, по которым SEO-оптимизатор перестарался. Поэтому самый просто метод диагностики — это чуть-чуть изменить запрос и проверить позиции. Если позиция заметная выше, значит наверняка фильтр.
Такой метод определения используется в сервисе be1.ru
Проверка на переспам в сервисе BE1Можно предположить, что наложен фильтр за переспам, если в группе запросов сильно упали только некоторые запросы. Если же провалились все, то скорей всего фильтр за переоптимизацию.
Другой метод проверки, это сверять позиции своего сайта и конкурентов по запросу вида «запрос (site:vashsite.ru | site:konkurent.ru)«. Если при сравнении с конкурентом сайт выше, а просто по запросу ниже, то вероятно есть фильтр. По такому принципу можно проверить в сервисе https://arsenkin.ru/tools/filter/
Это всё касалось Яндекса. В Гугл просто обваливается трафик и позиции по странице, а предполагать приходится интуитивно. Если есть шансы, что текст переспамлен или некачественный, то лучше полностью переписать.
Проверка технических проблем
Даже если сайт работает и страница лично у вас открывается, нельзя исключать влияние технических проблем, они тоже могут быть причиной плохих позиций и в Яндекс и в Google.
В первую очередь надо проверить сохраненную версию страницу в Яндекс и Google, убедится что содержимое совпадает с тем, что на сайте.
Затем можно выполнить аудит страницы с помощью каких-нибудь сервисов, например Be1 или PR-CY
Анализ страницы в Be1Проверьте скорость загрузки в Page Speed Insights от Google, посмотрите рекомендации:
Обычно с технической точки зрения
Проверка коммерческих факторов
Если давно не меняли сайт, то может оказаться, что в ТОП-10 поменялся набор коммерческих факторов. Суть в том, что для каждой тематики и типа сайтов есть определенный набор элементов на сайте, которые пользователи привыкли видеть. Поисковик понимает, как это проанализировать.
И вот, например в ТОП-10 вышли страницы, на которых есть интерактивная карта проезда, а у вас нет, поэтому позиции снизились. Это реальный пример, я выводил страницу в ТОП-10 просто добавив карту проезда и текст «как добраться» на странице услуги.
Как проанализировать коммерческие по ТОПу я написал в конце статьи про коммерческие факторы ранжирования сайтов.
Часть таблицы по анализу на коммерческие факторы.Проверка поведенческих факторов
Поведение пользователей тоже может влиять на позиции и чем больше частота запроса, тем это влияние выше. Нам надо проанализировать CTR на поиске и показатель отказов у себя на сайте.
С помощью Яндекс Метрики можно посмотреть как менялся показать отказов по странице. Если показатель отказов вырос, значит контент страницы перестал удовлетворять потребностям пользователя. Скорей всего позиции постепенно снизились. Нужно смотреть по стоящим в ТОП-10 сайтам, что теперь интересно пользователям.
График показатель отказов по страницеА с помощью кабинетов вебмастеров можно изучить информацию по кликабельности страницы (или запроса) в поисковой выдаче. Если какие-то страницы сильно выделяются на фоне остальных в худшую сторону, то скорей всего сниппет вашей страницы в результатах поиске не привлекает пользователей.
Проверка ссылочных факторов
Ну и наконец, надо проверить достаточно ли ссылочной массы у нашей страницы по сравнению с конкурентами (и качество этих ссылок). Это самая маловероятная причина резкого снижения позиций, что вдруг стало не хватать ссылочного веса.
В первую очередь смотрим общую ссылочную массу по сравнению с конкурентами. Если у нас средние показатели, то проверяем уже ссылки постранично.
Самый быстрый способ проверить страницы в ТОП на ссылки, это инструмент от Мегаиндекс «Анализ ссылок по ТОП»
Важно не только количество, но и анкоры ссылок. Сервис позволяет всё это посмотреть.
Анализ анкоров ссылокЕсли ссылок достаточно, анкор лист выглядит разумным, то надо рассмотреть следующие угрозы:
- Ссылки стоят, но они низкого качества. Донор превратился в линкопомойку и его ссылки стали вредить. Тогда нужно постараться снять ссылки (в Гугл можно отклонить в кабинете вебмастера)
- Переспам в анкор-листе. Возможно, слишком много ссылок с прямым вхождением ключа. Тогда тоже нужно либо снимать ссылки, либо попробовать разбавить анкор лист.
С ссылками нужно быть поаккуратней. Учитывая, что они играют далеко не главную роль в продвижении, никому не рекомендую испытывать границы переспама или проверять сколько можно безопасно купить ссылок на страницу. Работаем точечно, добавляем по 1-2 ссылки в месяц на страницу максимум, а по возможности стараемся работать без них.
Заключение
Низкие позиции — это обычно недостаток релевантности или нехватка какого-то фактора.
Если позиции просели, то сначала исключаем наложение санкций, а затем проверяем по порядку возможные факторы и вы наверняка сможете выдвинуть гипотезы, которые стоит проверить.
Анализ сайта, всё о сайте лучшие сервисы для изучения и аудита сайта.
Насколько сайт популярен? Одинаково ли он выглядит на разных устройствах и в разных браузерах? Хорошо ли SEO-оптимизирован ресурс? Как узнать всё о сайте? Это частые вопросы владельцев веб-ресурсов.
Информация о сайте ― это несекретные данные. Для анализа сайта можно использовать десятки сервисов, которые ответят на все вопросы, связанные с аудитом сайта. Некоторые из них мы рассмотрим в статье.
Для чего может понадобится узнать всё о сайте:
- Для аудита своего сайта, чтобы увидеть слабые места веб-ресурса. Страница может плохо отображаться на мобильных устройствах, долго загружаться или содержать битые ссылки. Лучше решить эти проблемы раньше, чем это заметят пользователи и поисковые системы.
- Для изучения конкурентов. Конкуренция в интернете растёт, и нужно постоянно следить за своими соперниками, ведь чем они сильнее, тем ваш сайт ниже в поисковой выдаче. Возможно, ресурсу не хватает SEO-оптимизации или есть проблема с контентом. Это можно будет узнать в сравнении с конкурентами.
- Для анализа сайта при его покупке. Необязательно делать сайт с нуля. Можно приобрести готовый ресурс со схожей тематикой у другого владельца. Чтобы не купить сайт с плохой репутацией, перед покупкой нужно провести небольшой анализ сайта. На репутацию может влиять некачественный контент, плагиат, плохая SEO-оптимизация, навязчивая реклама.
- Для заказа рекламы. Реклама ― это эффективный метод продвижения любого ресурса. Однако важно, чтобы она располагалась на популярных и качественных сайтах.
Посещаемость сайта
Посещаемость показывает, насколько сайт отвечает потребностям целевой аудитории. Также посещаемость важна при выборе платформы для рекламы. Чем популярнее ресурс, тем целесообразнее размещать на нём рекламу.
Если вы владелец веб-ресурса, то проверить посещаемость можно с помощью сервисов Яндекс.Метрика и Google Аналитика.
Яндекс.Метрика
Google Аналитика
- 1. Зарегистрируйтесь на сервисе и прикрепите к нему свой сайт.
-
2.
Перейдите во вкладку Сводка. Здесь вы увидите количество новых пользователе и общее число посетителей:
- 1. Зарегистрируйтесь на сервисе и прикрепите свой сайт к нему.
-
2.
Перейдите во вкладку Аудитория. Здесь можно не только посмотреть общее количество посетителей, но и увидеть количество активных пользователей, а также длительность их контакта с сайтом:
Если вас интересует посещаемость не вашего сайта, то можно воспользоваться программами SimilarWeb, и SEMrush.
Эти сервисы сотрудничают с браузерами, что позволяет им получать данные о посетителях сайта. Однако эти данные только приблизительные. Точные цифры может знать только администратор. Для оценки со стороны этого достаточно, так как погрешность небольшая.
Посещаемость сайта важна для SEO-анализа, поэтому этот показатель входит во многие отчёты сервисов для анализа на SEO-оптимизацию. Если вас интересует не только посещаемость, используйте один из сервисов, описанных ниже.
Лучшие инструменты для анализа SEO
SEO ― совокупность работ, которая направлена на повышение позиций сайта в поисковой выдаче. Чем выше сайт в выдаче поиска, тем чаще его видят пользователи и тем больше шансов привлечь потребителей на сайт.
Так же как и при изучении посещаемости, выбор сервисов для анализа зависит от того, чей сайт вы изучаете. Если вы хотите проанализировать свой сайт, то самыми популярными сервисами являются Яндекс.Вебмастер и Google Search Console. Если ваш ресурс создан на REG.Site, настроить базовое SEO-продвижение поможет статья Как настроить SEO-продвижение сайта, созданного в REG.Site.
Проанализировать сторонний ресурс помогут другие сервисы. Ниже мы дадим небольшой обзор самых популярных сервисов для SEO-анализа.
XTOOL
XTOOL позволяет быстро сделать комплексный SEO-анализ сайта. С его помощью можно узнать:
✔ возраст сайта,
✔ рейтинг веб-ресурса в поисковых системах,
✔ наличие санкций на сайт,
✔ количество внутренних и внешних ссылок,
✔ показатели PR, ИКС, ТИЦ,
✔ траст.
SBUP.com
По сравнению с XTOOL SBUP.com имеет более широкий функционал. Кроме стандартных SEO-параметров (возраст, PR, ИКС и ТИЦ-показатели, ключевые слова, внутренние и внешние ссылки), он показывает:
✔ IP-адрес,
✔ тип и ПО сервера,
✔ наличие вирусов,
✔ скорость ресурса,
✔ определяет примерную цену.
PR-CY
PR-CY.RU ― один из самых популярных бесплатных сервисов для анализа SEO. Введите интересующий вас домен и сервис покажет вам:
✔ важные изменения, которые происходили на сайте, например изменения в файле robots.txt,
✔ ИКС, PR, позиция в Яндекс и Google,
✔ вирусы и санкции,
✔ посещаемость,
✔ рейтинг в Alexa.
В платной версии можно получить ещё больше информации:
✔ географию аудитории,
✔ источники трафика,
✔ трафик в социальных сетях,
✔ поведение пользователей (количество отказов, время на сайте, количество посещенных страниц).
CY-PR.com
CY-PR.com ― ещё один бесплатный сервис для SEO-анализа. Регистрироваться не нужно, просто введите доменное имя и нажмите Анализировать:
Он будет полезен для анализа своего сайта и для анализа конкурентов. Кроме стандартных критериев оценки, CY-PR.COM предлагает:
✔ измерение скорости работы сайта,
✔ данные из WHOIS,
✔ проверяет ошибки в кэшировании и CSS,
✔ проверяет оптимизацию для мобильных устройств и планшетов.
СайтРепорт
На saitreport.ru можно бесплатно проверить 25 страниц портала. Для использования ресурса нужна регистрация. Сервис позволяет провести технический аудит (тип и ПО сервера, наличие вирусов на сайте, скорость ресурса и т. д.), выдаёт данные о количестве страниц портала, среднем времени загрузки, наличии sitemap и robots.txt. Также можно проверить данные о контекстной рекламе, объёме поискового трафика в месяц, числе запросов в Яндекс и Google, обратных ссылках и анкорах. Есть возможность узнать количество упоминаний в СМИ и в социальных сетях. Программа оценивает корректность тегов и оригинальность контента. Можно настроить автоматическую проверку, и раз в день, неделю или месяц сервис будет отправлять результат анализа на вашу электронную почту.
Пиксель Тулс
Пиксель Тулс поможет узнать практически всё о сайте. Он простой в использовании, в бесплатной версии достаточно много инструментов для SEO-анализа. Сервис:
✔ проверяет тексты на уникальность и вхождение ключевых слов,
✔ проверяет позиции в Google и Яндекс,
✔ показывает количество переходов из социальных сетей,
✔ анализирует количество рекламных объявлений в выдаче Яндекса,
✔ рассчитывает KPI,
✔ анализирует ссылочную массу,
✔ анализирует скорость загрузки контента.
В платной версии можно получить ещё больше возможностей, таких как анализ XML-карты, проверка поведенческих факторов пользователей, анализ SEO-тегов для списка URL и др. Можно настроить автоматический аудит.
Как выглядит сайт на мобильных устройствах
Посмотреть, как будет выглядеть сайт на самых распространённых смартфонах и планшетах можно на bluetree.ai.
Введите URL-адрес и нажмите Идти:
img src=«https://img.reg.ru/faq/2021021514_analiz_saita_4.png» loading=«lazy» alt=«=1100×494 „Анализ SEO 2“ itemprop=„contentUrl“ />
Готово, вы можете выбрать любое устройство и посмотреть, как на нём отображается страница.
Совместимость с другими браузерами
Пользователи могут заходить на сайт не только с разных устройств, но и с разных браузеров. Важно, чтобы он одинаково отображался на всех платформах. Чтобы проверить отображение в разных браузерах, можно использовать Browserling. Можно посмотреть, как выглядит сайт на Internet Explorer, Chrome, Safari, Opera и Firefox.
Нарушение авторских прав
Если вы планируете купить уже использованный домен или весь сайт, обратите внимание на его репутацию. Один из способов узнать прошлое веб-ресурса ― найти жалобы на нарушение авторских прав. Если сайт активно использовал плагиат, то его рейтинг в поисковых системах явно низкий и покупать такой домен невыгодно. Проверить количество жалоб на сайт поможет Lumen. Введите доменное имя и нажмите Идти:
Перед вами появится список всех жалоб, которые получал сайт за всё время его существования.
Скорость сайта
Скорость загрузки сайта ― это важный элемент, за которым нужно следить. Пользователи не любят долго ждать загрузку страницы. Поисковые системы об этом знают и размещают медленные страницы ниже в поисковой выдаче.
Сервис PageSpeed Insights от Google не только покажет скорость загрузки, но и подскажет, какие проблемы нужно устранить, чтобы сайт стал загружаться быстрее.
Битая ссылка — это гиперссылка с ошибкой в URL-адресе. Из-за этого пользователь не может увидеть нужную ему информацию.
Они могут появиться, если:
- старые страницы или документы были удалены,
- была изменена ссылка на стороннем сайте,
- ссылка была написана с ошибкой,
- произошли изменения в структуре сайта. Например, страница была перенесена в другой раздел и поменяла свой URL, а старые ссылки на страницу остались неизменными.
Проверить сайт на наличие битых ссылок можно вручную. Для этого нужно переходить во все существующие страницы на веб-ресурсе, нажимать на все ссылки и смотреть, на какие страницы они перенаправляют. Это долго и неудобно, поэтому этот процесс лучше автоматизировать с помощью Badlinks.
Делятся ли ссылками на сайт в социальных сетях
Популярный сайт должен быть не только интересен пользователям, но и побуждать посетителей делиться контентом страницы с другими. С помощью muckrack.com можно узнать, сколько раз и какие пользователи поделились конкретным URL-адресом.
В этой статье мы разобрали лучшие онлайн-сервисы, которые помогут сделать сайт лучше или выбрать хороший веб-ресурс для покупки. Чтобы узнать всё о сайте, используйте несколько сервисов и сравнивайте результаты. Так вы сможете максимально точно определить слабые места ресурса.
Помогла ли вам статья? 1
раз уже
помогла
Пример SEO Аудита Сайта — Plerdy
В этой статье пойдет речь о том, что такое поисковая оптимизация и SEO-аудит сайта. Вы узнаете, что это за процедуры и как они влияют на продвижение сайта: сначала поговорим о важности оптимизации, после разберем теоретическую часть и закрепим материал готовым отчетом о проверке сайта. Информация про SEO-анализ сайта будет полезна всем пользователям, которые заинтересованы в развитии своего бизнеса и готовы использовать для этого все современные способы.
Команда Plerdy подготовила для Вас новый бесплатный вебинар — «SEO-аудит сайта на примере Google & Apple сайтов». Видеозапись Вы можете посмотреть в этом видео. Присоединяйтесь к тем, кто уже успел посмотреть этот вебинар.
Содержание:
В чем важность SEO и SEO-аудита
Вообразим человека, решившего открыть первоклассную таверну с минимальными ценами, широким ассортиментом и бесплатным стриптизом. По мнению предпринимателя всего перечисленного достаточно, чтобы построить успешный бизнес, быстро набрать клиентскую базу и начать зарабатывать. Но все не так. Если о таверне никто ничего не узнаете, то на стабильную прибыль рассчитывать сложно.
Таверна о которой никто ничего не знает.
Неизвестная таверна будет перебиваться случайными заработками, потратит много времени на раскрутку и весь период просадки предпринимателю придется выживать за счет собственного капитала. Если денег не хватит, то через пару месяцев бизнес закроется и таверна за копейки будет выставлена на аукцион по банкротству.
Неизвестная таверна — это место без клиентов и прибыли.
Исправляем ситуацию: фотографируем таверну, описываем ее несколькими короткими предложениями и помещаем это объявление на первую полосу местной популярной газеты. Параллельно задействуем и другие рекламные способы, которые позволяют как можно большему количеству пользователей побыстрее узнать о новом заведении.
Размещаем информацию о новой таверне на обложке местной газеты.
Когда информация о таверне попадет в правильные источники, то практически сразу можно рассчитывать на первых клиентов. Дальше все будет зависеть от предпринимателя: если он создаст душевную атмосферу и построить весь сервис вокруг посетителей, то таверна быстро станет посещаемым местом. После высокая посещаемость конвертируется в прибыльный бизнес, который можно расширять и совершенствовать. В противном случае даже лучшая реклама окажется бесполезной.
Узнаваемая таверна — это место довольных и постоянных клиентов.
А теперь представьте, что вместо таверны мы запускаем сайт. В этом случае для привлечения посетителей будет использоваться не реклама в газетах, а поисковая оптимизация. Поисковая оптимизация — это комплексный процесс, позволяющий перенести сайт на высокие позиции в Google, Яндекс и других поисковых системах: SEO-оптимизация → рост посещаемости → увеличение продаж.
По усредненным данным около 80% интернет-сайтов никогда не открываются только из-за того, что находятся за пределами первых десяти страниц поисковой выдачи:
- На первое место приходится около 32% кликов.
- На второе — 15%.
- На третье — 10%.
- С четвертого по девятое — 20%.
- Уже на десятое место отводится не более 3% кликов.
- Одиннадцатое и все последующие места суммарно дают не более 20%.
- На двадцать первое место выпадает менее 1% кликов — это всего лишь третья страница поисковой выдачи.
- Начиная с четвертой страницы процент кликабельности настолько низок, что все пользовательские переходы можно считать случайными.
Поэтому если хотите конкурентный сайт — без поисковой оптимизации и SEO-аудит не обойтись. Поисковая оптимизация позволит вывести сайт в ТОП-10, а SEO аудит поможет там закрепится несмотря на меняющиеся условия и действия конкурентов.
Теория
После изучения теоретической части вы будете знать, что такое хорошая поисковая оптимизация, как взаимосвязаны SEO и маркетинг, зачем заниматься
юзабилити-тестированием и как проводить аудит оптимизированного сайта.
Перед началом стоит сразу упомянуть о существующих методах оптимизации:
- Белое SEO — это все разрешенные приемы, которые позволяют продвигать сайт и бороться с конкурентами. Именно о таком SEO мы говорим в данной статье.
- Серое SEO — это методы, которые прямо не запрещаются, но из-за которых сайт в любой момент может попасть под санкции. Если сайт попадает под санкции, то он исключается из поисковой выдачи и теряет трафик.
- Черное SEO — это запрещенные методы, внедрение которых обещает быстрое попадание в ТОП-10. Обычно черное SEO направлено на обход поисковых алгоритмов и на временное поднятие SEO рейтинга сайта. Когда проблема обнаруживается — набранные позиции сбрасываются и сайт рискует попасть в поисковый бан. Если сайт попадает в бан, то он исключается из поисковых систем и для исправления ситуации нужно переносить контент на новый сайт.
Мы не знаем, кто и зачем практикует запрещенные методы SEO-продвижения. Мы лишь предупреждаем, что их использование не поможет получить долгосрочный результат.
С белым SEO тоже не все просто: поисковый алгоритмы постоянно менются и обновляют свои требования. Из-за этого все сегодняшние рекомендации могут потерять актуальность уже через год. Поэтому если вы планируете надолго закрепиться в ТОП-10, то важно постоянно интересоваться темой, откликаться на тренды или нанять для этого специалистов. Другого легкого способа не существует.
Белое SEO — это единственный способ правильной оптимизации сайта. Все остальное зло.
Также важно сразу разобраться, чем современные методы поисковой оптимизации отличаются от поисковой оптимизации прошлого:
SEO-оптимизация 1.0 | SEO-оптимизация 2.0 |
Смысл поисковой оптимизации сводился к тому, чтобы накачать сайт как можно большим количеством ключевых запросов и за счет этого продвинуться в рейтинге. То есть поисковая оптимизация проводилась только для того, чтобы сайт как можно быстрее попал в ТОП-10 Яндекса и Гугла | Используется поисковая оптимизация цифрового маркетинга — сайт продвигается в рейтинге по ограниченному количеству ключевых запросов, которые направлены на привлечение релевантного органического трафика. То есть поисковая оптимизация проводится для того, чтобы увеличивать продажи и развивать бизнес |
Практически весь контент создавался для поисковых роботов, поэтому большинство запросов оставались неудовлетворенными. Сайты с избыточными SEO-текстами сохраняли высокий рейтинг до тех пор, пока поисковые системы не закрыли этот пробел и стали ориентироваться на пользователей | Контент создается для пользователей и направлен на то, чтобы как можно полнее удовлетворить информационные потребности аудитории. При этом оптимизация под поисковые роботы сохраняется, но носит второстепенный характер и при высоком интересе может полностью игнорироваться |
Поскольку контент затачивался под поисковых роботов, отпадала потребность в его структурировании, регулярном обновлении и использовании полезной информации. Если сайт оказывалась на нужных позициях, то никаких дальнейших шагов по его развитие не принималось | Поскольку все тексты пишутся для людей, то в них должна присутствовать структура и полезный материал. При этом важно, чтобы контент производился на постоянной основе и дополнялся изображениями или видео. Даже если сайт находится на нужных позициях, то важно сотрудничать с маркетологами, изучать новые потребности аудитории и быстро закрывать эти новые потребности через обновленный контент |
Для продвижения использовалось большое количество внешней ссылочной массы от некачественных доноров — ссылки размещались на всех площадках, способных привлечь хоть какое-то количество трафика | Продвижение за счет ссылочной массы осталось, однако сейчас сделан упор только на качественные площадки, способных генерировать целевой трафик — то есть ссылки оставляются только там, где есть реальная аудитория. Для этого проводится аудит внешний ссылочной массы, позволяющий удалить бесполезные ссылки и поставить вместо них полезных доноров, обнаруженных у ближайших конкурентов |
Рост поведенческих факторов обеспечивался за счет публикации подставных отзывов, кликов и статей. SEO-специалисты проводили исследования, находили новые пробелы в работе поисковых алгоритмов и применяли эти пробелы для продвижения. Если внедрить эти советы по поисковой оптимизации сейчас, то сайт гарантированно не попадет в ТОП и рискует навсегда вылететь из поисковой выдачи | Накрутка поведенческих факторов бесполезна, поскольку ключевым показателем SEO-стратегии становится ROI — условный показатель, оценивающий насколько выгодно владельцу сайта заниматься поисковой оптимизацией. Если сайт продвигается и приносит доход, то ROI и SEO-стратегия считается оправданной и наоборот. На смену накрутке и поиску уязвимости приходит глубокая проработка семантики проекта, затрагивающая поисковые подсказки, информационные, микро и низкочастотные запросы. Сюда жа добавляются различные виды юзабилити-тестирования, делающие сайте простым и удобным для пользователя |
Если нет серьезных технических проблем, то опубликованная ссылочная масса и переизбыток ключевых запросов позволят сайту не потерять место в общем рейтинге | Увеличивает роль технического аудита: недостаточно просто исправить базовые проблемы и надеяться на внешние ссылки. Нужно прорабатывать множество мелких делателей, которые по отдельности мало заметны, но вместе дают результат. Также ценится использование автоматизированных систем, способных в круглосуточном режиме мониторить основные показатели сайта. Например, если какая-то страница вылетет из индексов поисковых систем, то вы об этом сразу узнаете и сможете принять меры |
Используется простая поисковая оптимизация, которая внедряется обособленно и никак не влияет на рост продаж или повышение других конверсионных показателей сайта | Вместе с SEO-оптимизацией ведется работа над повышением конверсионных показателей сайта. Ключевая задача заключается в том, чтобы с помощью уже имеющегося трафика добиться от пользователей совершения как можно большего количества нужных целевых действий: больше заявок, покупок, звонков |
Продвижение через социальные сети проводилось только в том случае, если это помогало лучше продвигать сайт | В обязательном порядке для продвижения используются как стратегии поисковых систем, так и популярные социальные сети |
Если подвести итог и выделить что-то одно, то главное отличие современной SEO-стратегии заключается в ROI — двигаясь в ТОП сайт должен приносить больше прибыли. Если поисковая оптимизация не приводит к лучшим финансовым результатам, то владельцу интернет-проекта стоит выделить бюджет на другие методы продвижения или сменить SEO-агентство. Теперь вы знаете, для чего используется SEO и на основе этих данных можно переходить к подробностям. Далее вы узнаете, как оптимизировать сайт для SEO и на что смотреть в отчете веб-аналитики.
Что такое SEO-оптимизация и почему ее нельзя сравнивать с контекстной рекламой
SEO-оптимизация — это комплекс действий, которые позволяют повысить рейтинг сайта по запрашиваемым ключевым словам в различных поисковых системах: N-е место в общем каталоге сайтов → ТОП-10 → ТОП-3 → ТОП-1. Если ввести в адресную строку любой запрос и дать команду «Найти», то перед первым местом в выдаче отобразится блок с контекстной рекламой — это сайты конкурентов, которые заплатили деньги за то, чтобы без SEO-оптимизации отобрать часть вашего трафика.
Здесь у многих владельцев сайтов возникают вопросы по поводу того, стоит ли заниматься SEO-продвижением, если нужный результат быстрее получить через контекстную рекламу. Однозначного ответа мы не знаем, поскольку все зависит от ситуации: если вы определились с тематикой и планируете работать в выбранном направлении не менее десяти лет, то стоит выбирать SEO. Если же вы только тестируете нишу, то удобней использовать контекстную рекламу. В любом случае метод продвижения всегда должен подбираться под поставленную задачу:
SEO-оптимизация | Контекстная реклама |
В ТОП-10 никогда не попадет некачественный сайт, контент которого не может ответить на прямые пользовательские запросы. Более того, даже хорошо спроектированный сайт с обновляемым контентом не всегда получится вывести в лидеры. Все из-за того, что поисковое продвижение — это сложный процесс, требующий постоянных усилий | Продвигаться с помощью контекстной рекламы может практически любой сайт, которые не заниматься никакой противозаконной деятельностью. Для этого достаточно настроить и оплатить нужное количество рекламных объявлений |
Если ниша не слишком перенасыщена, то на попадание в ТОП-10 в среднем уходит 2-4 месяца. Если же в нише сильная конкуренция, то средний срок продвижения растягивается до 6-12 месяцев. В некоторых случаях на первый результат можно рассчитывать спустя несколько лет — здесь все зависит исключительно от уровня конкурентов | Всю процедуру можно провести за один день |
Если инвестировать ресурсы в SEO-продвижение, то сайт сможете занимать высокие позиции одновременно во всех существующих поисковых системах. Отсюда же будет идти органический трафик, за который не нужно никому доплачивать | Если купить рекламу только в Яндекс Директ, то на первых позициях сайт будет показываться только в Яндексе. Чтобы развиваться в других поисковых системах, нужно заниматься SEO-оптимизацией или приобретать рекламу в нужных поисковиках |
Если на какое-то время вы перестанете развивать сайт, то даже при смене поисковых алгоритмов и активных действиях конкурентов часть трафика сохранится. Сайт будет удерживаться за счет уже проделанной работы и не затеряется в каталоге выдачи | Все рекламные объявления исчезнут сразу после того, как вы не внесете оплату за их размещение. В этом случае если на сайте не проводились работы по поисковой оптимизации, то он рискует провалиться в каталоге выдачи и потерять весь трафик |
Владельцы новых сайтов часто совмещают контекстную рекламу и поисковое продвижение — такой подход называется SEM или маркетинговое определение SEO. Работает это по такой схеме: сначала почти всю посещаемость обеспечивает реклама → после срабатывает оптимизация и весь трафик достается бесплатно → контекстная реклама убирается → высвободившиеся деньги направляются в бизнес или на продвижение сайта по новым поисковым запросам. Все упирается в задачу.
Основные составляющие SEO-оптимизации сайта
Чтобы определить основные составляющие поисковой оптимизации, нам нужно понять алгоритм, по которому выстраивается SEO-ранжирование сайтов:
- Роботы поисковых систем регулярно обходят интернет, сохраняя у себя информацию обо всех существующих сайтах.
- На основе собранных данных каждому сайту присваивается значение, которое можно сравнить с предметным указателем в книге. Разница в том, что у пользователей есть возможность находить нужные сайты не только по названию, но и по внутреннему содержимому — контенту.
- Далее происходит ранжирование сайтов. Для этого используются сложные формулы, которые постоянно обновляется, состоят из сотни параметров и не дублируются в других поисковых системах.
- Проранжированные сайты ежедневно изучаются поисковыми роботами на предмет поведенческих факторов — здесь анализируется информация о том, как пользователи работают с сайтом: куда смотрят, что пропускают и из-за чего покидают ресурс.
- Когда на каком-то проранжированном сайте роботы наблюдают положительную динамику поведенческих факторов — сайт набирает позиции и поднимается в поисковой выдаче. Если же динамика поведенческих факторов снижается — сайт теряет позиции и опускается в рейтинге.
Если опираться на описанный алгоритм, то качество поисковой оптимизации зависит от контента и юзабилити:
Контент | Юзабилити |
На сайте должна размещаться уникальная информация, которая содержит полезные сведения и полностью отвечает на введенный запрос. Сейчас принято создавать длинные публикации, требующие внимательного изучения и подробно раскрывающие тему. Приветствуется видео, аудио и графика — чем больше времени пользователь проведет на сайте, тем более ценным этот сайт будет оценен со стороны поисковых систем. Это означает, что при следующем аналогичном запросе такой сайт укрепить свои позиции и может закрепиться в лидерах выдачи | Сайт не должен содержать вирусов и отображаться в виде простой одностраничной картинки (флэша). Также на сайте не должно быть поврежденных элементов, неработающих ссылок и других подобных проблем. Если что-то не будет работать, то даже при качественном контенте сайт получит низкую SEO оценку. Также важно, чтобы пользователю было удобно ориентироваться и он мог легко найти нужную информацию — подробней об этом читайте в статье «Что такое тестирование юзабилити сайта и как его проводить?» |
Чтобы оценивать качество контента и юзабилити, необходимо регулярно проверять сайт по основным конверсионным показателям: если цифры возрастают, то SEO-оптимизация проводится правильно. Подробней об этом читайте в статье «Что такое оптимизация конверсии сайта и как она влияет на увеличение продаж».
Общее руководство по внедрению SEO-стратегии
В этом разделе будут представлены основные этапы поисковой оптимизации любого веб-сайта. Во время изучения материала имейте в виду, что эти этапы могут меняться в зависимости от проекта, конкуренции, аудитории и прочих деталей.
Сделайте аудит текущих позиций сайта. Оптимально, когда стратегия поисковой оптимизации составляется до запуска сайта. В этом случае SEO-специалист помогает сэкономить время, избежать необязательных проблем и сохранить бюджет:
- Вначале отбираются приоритетные тематики, по которым можно продвигать сайт. После по каждой тематике проводится анализ сезонности и оценивается влияние других факторов на качество поискового трафика. Крупным интернет-магазинам этот пункт помогает составить долгосрочную стратегию продвижения по всем категориям товаров, а у других сайтов появляется возможность сделать прогноз трафика после внедрения SEO-стратегии.
- Прорабатывается структура сайта. Это один из самых объемных видов работ, поскольку здесь заранее нужно просчитать, как в удобном порядке опубликовать большое количество материала. Здесь же необходимо помнить о том, что после реализации запланированной SEO-стратегии может понадобится новый материал, который также нужно гармонично вписать в сайт. Ситуация усложняется, когда владелец ресурса уже согласовал структуру и она не соответствует требуемому плану поисковой оптимизации.
- Разрабатывается семантическое ядро. Здесь специалист проводит детальное исследование пользовательских запросов и готовит подборку ключевых слов.
- Готовится техническое задание для публикации первых SEO-текстов на сайте.
- Проводится SEO-анализ и исправляются мелкие технические детали. Этот этап позволяет выявить недоработки первых текстов и сделать так, чтобы в будущем на сайте появлялся правильно оптимизированный SEO-контент.
Если сайт уже запущен, то первичный алгоритм SEO-специалиста будет другим:
- Проводится анализ рейтинга сайта по его исходным позициям. Вначале идет проверка ключевых слов по высоко-, средне- и низкочастотным запросам. Далее изучаются конкуренты: проверяется их тематика, ссылочный профиль, структура и основные посадочные страницы. После основная тематика сайта сопоставляется с данными поисковой выдачи — здесь исследуется пользовательский спрос и оценивается фактор сезонности. Когда отчет об анализе сайта сформирован, SEO-специалист может разработать подходящую стратегию продвижения и просчитать бюджет на ее реализацию.
- Корректируется структура и исправляются критические ошибки проекта.
- Проводится анализ ключевых слов сайта и разрабатывается новое семантическое ядро.
- В соответствии с обновленным семантическим ядром корректируются уже опубликованные SEO-тексты и готовится техзадание для следующих публикаций.
- Проводится разъяснительная беседа со штатными копирайтерами и всеми сотрудниками, которые готовят контент для сайта. После этой беседы каждый автор должен понять, какая польза от поисковой оптимизации и каким стандартам должен соответствовать каждый текст. Чтобы быстро получить нужный эффект — достаточно оформить общий чек-лист, где в краткой форме перечислить все озвученные требования по SEO-копирайтингу.
Чем раньше на сайте появится SEO-стратегия оптимизации, тем быстрее появится первый результат и бесплатный органический трафика из поиска. Точных сроков здесь нет, поскольку все зависит от сложности проекта, от его технического состояния и от скорости, с которой программисты смогут внедрять предложенные рекомендации.
- Проведите аудит внутренней оптимизации. Пересмотрите существующие адреса страниц и сделайте так, чтобы у каждой ссылки был читаемый вид. С помощью фильтров пропишите правила добавления новых URL-адресов, тегов и прочих видимых ссылок. Удалите дублирующие страницы, добавьте карту сайта, проверьте скорость загрузки основных страниц и время ответа сервера. По мере необходимости настройте мультиязычность, пагинацию, добавьте микроразметку отзывов и дополнительную информацию на все страницы с карточками товаров.
- Настройте внутреннюю перелинковку. Грамотно организованные внутренние ссылки связывают все содержимое сайта в одну логическую цепочку, упрощают навигацию и помогают продвигать основные страницы — чем больше ссылок идет на какую-то страницу, тем более значимой она становится для поисковых систем.
- Организуйте контентную SEO-оптимизацию. Пересмотрите тексты в основных разделах и страницах сайтах. Убедитесь в отсутствии переспама ключевых слов и проследите за тем, чтобы каждая статья была написана понятным языком. Проставьте подписи ко всем изображениям, схемам и видео. Оцените верстку и проверьте заголовки Н1-Н6. Проверьте метатеги тайтл и дескрипшн: убедитесь в их наличии и при необходимости установите плагин для их автоматической генерации.
- Настройте индексацию. В корневой системе сайта должны находится файлы robots.txt и sitemap.XML, которые помогут сэкономить краулинговый бюджет. Файл robots.txt показывает поисковому роботу те страницы, которые нужно индексировать и оставить нетронутыми. Файл sitemap.XML помогает лучше ориентироваться в структуре сайта. Краулинговый бюджет определяет максимальное количество страниц, которые робот может охватить за одно посещение сайта. Если краулинговый бюджет наполняется мусорными страницами, то часть оптимизированных страниц могут не попадают в поиск. В итоге из-за ненастроенной индексации поисковые роботы добавят в каталог множество служебных страниц, превысят краулинговый бюджет и затормозят продвижение сайта.
- Выполните аудит юзабилити. Оцените дизайн, цветовую гамму, шрифты, навигацию, качество изображений, структуру текстов, логику меню и прочие элементы, отвечающие за удобство сайта. Отдельно проверьте сайта на совместимость с мобильными устройствами — в 2020 году более 60% трафика идет со смартфоном и только 20% сайтов под них адаптированы. Важно все сделать так, чтобы у пользователей не возникало потребности возвращаться в поиск и искать информацию на другом ресурсе. Подробно вопросы юзабилити-тестирования мы разбирали в статье «Что такое тестирование юзабилити сайта и как его проводить?». В этой же публикации вы сможете посмотреть примеры тестирования юзабилити и познакомиться с инструментами исследования UX.
- Проведите отчет и настройте внешнюю оптимизацию. Подберите проверенные площадки с реальной аудиторией, которая позволит продвигать сайт путем наращивания качественной ссылочной массы: больше тематических площадок → больше кликов со стороны заинтересованной аудитории → большая значимость сайта в глазах поисковых роботов → более быстрое поисковое продвижение.
- Установите конверсионные показатели. На этом этапе привлекаются дополнительные специалисты и устанавливаются дополнительные метрики, оценивающие качество поискового продвижения:
Попадание сайта в ТОП-3 | Попадание сайта в ТОП-3 |
↓ | ↓ |
Увеличение заказов | Увеличение заказов |
↓ | ↓ |
Рост прибыли | Уменьшение прибыли |
↓ | ↓ |
Внедрение SEO-стратегии увеличило конверсию продаж — сайт развивается правильно и нужно придерживаться плана | SEO-стратегия снизила конверсию продаж — сайт развивается неправильно, поэтому нужно искать ошибку или менять план |
Помимо конверсии продаж существует множество других показателей, способных проверить эффективность сайта и качество запланированных целевых действий. Если интересно — смотрите статью «Что такое оптимизация конверсии сайта и как она влияет на увеличение продаж».
- Выполните поэтапную постраничную оптимизацию. Постраничная оптимизация — это вынужденная процедура, которую придется проводить каждый раз, когда произойдут существенные изменения в алгоритмах поисковых систем. Например, если Яндекс перестанет индексировать статьи без видео, то вам придется вручную отредактировать каждый опубликованный текст и добавить в него тематический ролик. Если этого не сделать, то сайт быстро потеряет набранные позиции и уступит место более оптимизированным ресурсам. Чтобы этого не допустить — важно проводить регулярный аудит. Он поможет не терять трафик, исправить текущие ошибки и своевременно узнавать о новых правилах поисковой индексации.
Как проводить SEO-аудит сайта
Аудит сайта — это многоэтапная проверка, которую рекомендовано проводить хотя бы один раз каждые 1-3 месяца. Аудит решает сразу целый комплекс задач:
- Можно устранить очевидные технические проблемы.
- Получить дополнительные рекомендации для проведения постраничной оптимизации.
- Улучшить коммерческие и поведенческие факторы.
- Проработать ссылочную массу: удалить нерабочие ссылки, отказаться от спамных доноров и найти качественные рекламные площадки.
- Расширить семантическое ядро: внедрить новые разделы, подготовить новую семантику, дополнить сайт текстами и полезным функционалом.
Ниже опубликован алгоритм комплексного аудита, состоящий из шести условных этапов. Все эти этапы носят рекомендательный характер и могут внедряться только по желанию владельца сайта. Хотите развиваться — пробуйте все. Если нет времени — сразу переходите к техническому аудиту. Техническая проверка позволит обнаружить ключевые проблемы и на какое-то время сохранит сайту его исходные позиции.
Этап №1. Проанализируйте спрос и конкурентов. Изучаем географию пользователей, определяем средний возраст аудитории и вычисляем те устройства, с которых чаще всего выполняется вход на сайт. Оцениваем удобство пользования сайтом. Анализируем интересы аудитории и проверяем, чтобы эти интересы соответствовали тематики сайта. Расширяем семантику: собираем неиспользованные запросы из готовые семантического ядра, ищем новые ключевые слова через Google AdWords,Wordstat или любой другой планировщик ключей. Получаем отчет и на основе собранных данных создаем дополнительные разделы, посадочные страницы и публикации.
Вручную или через специальные сервисы составляем список конкурентов и собираем информацию о возрасте сайта, количеству проиндексированных страниц и количеству обратных ссылок. Соотносим собранные параметры с количеством органического трафика и ранжируем сайты в порядке от большего к меньшему. Особое внимание обращаем на лидеров: смотрим типовые страницы, изучаем интересный функционал, контент и пробуем понять, за счёт чего эти сайты удерживают пользователей. Все интересные решения тестируем на собственном сайте. Лучшие оставляем.
Этап №2. Проведите технический аудит сайта и получите отчет. Технический аудит — это та часть проверки, под которой чаще всего подразумевают SEO-аудит сайта. Здесь нужно проверить индексацию страниц, убрать дубли, оценить состояние технических файлов и убедиться в безопасности сайта. Вот общая схема проверки:
- Сначала проанализируйте все отчеты о рейтинге веб-страниц в панели вебмастеров Яндекса, Гугла, Bing и других используемых поисковых системах. Обращайте внимание на ошибки и способы их исправления.
- Проверьте индексацию страниц. Здесь посмотрите на код ответа сервера, на наличие битых ссылок, на необходимость использования редиректа и на адреса внешних ссылок. Зафиксируйте ошибки, переведите этот анализ страниц в форму отчета и передайте файл разработчикам.
- Отдельно изучите страницы, которые не проиндексировались в Яндексе, в Гугле или в обоих системах сразу. Чаще всего это происходит из-за проблем с файлом robot.txt или из-за того, страница не релевантна и не отвечает на введенный пользовательский запрос. Иногда страница попадает под поисковые санкции и закрывается для показа — в каждом случае нужен индивидуальный анализ, который позволит определить настоящую проблему.
- Проверьте сайт на наличие дублей, неполных дублей и зеркал. Дубли — это точные копии какой-то из страниц сайта, которые в поисковой выдачи отображаются под разными URL-адресами. Неполные дубли — это фрагменты контента, которые полностью повторяются на разных страницах сайта. Зеркала — это сайты с разными адресами и полностью одинаковым наполнением. Дубли удаляем, делаем редирект или пробуем закрыть любым другим способом. Неполные дубли удаляем или дорабатываем, чтобы продублированный контент стал уникальным. Сайты-зеркала склеиваем. Если с описанной проблемой ничего не делать, то поисковая система может неправильно определить релевантность страниц и сайт будет плохо индексироваться — в выдачу попадут те страницы, которые негативно повлияют на поведенческий фактор и снизят общий рейтинг ресурса.
- Вручную или с помощью валидаторов проверьте служебный файл robots.txt. В файле должны быть закрыты только те страниц, которые не должны попадать под наблюдение поисковых роботов.
- Проверьте файл Sitemap. Обратите внимание на корректность постановки дат, атрибутов и приоритетов. Посмотрите, чтобы путь к Sitemap был указан в файле robots.txt и отображались только те страницы, которые нуждаются в индексации. Прогоните файл Sitemap через валидатор и убедитесь в отсутствие других системных ошибок.
- Проверьте скорость работы сайта. Здесь нужно протестировать как главную страницу, так и основные разделы сайта. Проверенные страницы рассортируйте по времени загрузки и определите самые медленные страницы. Пересмотрите выбранные страницы и найдите причину их долгой загрузки. Если нужны сервисы — посмотрите статью «10 лучших сервисов для определения скорости работы сайта».
- Оцените верстку сайта. Для этого необходимо проверить сайт в различных браузерах, на различных разрешениях экрана и на различных устройствах. После общей проверки нужно вручную пройтись по всем типовым страницам и убедиться в работоспособности всех элементов.
- Проверьте удобство использования сайта мобильными пользователями. Здесь нужно использовать валидаторы, которые покажут корректность отображения всех страниц сайтах на разных устройствах и разных операционных систем. После программного теста эти же действия желательно повторить вручную.
- Проанализируйте микроразметку. Для этого просканируйте сайт через валидатор, выделите страницы с микроразметкой и исправьте ошибки.
- Введите название сайта или компании в поисковую систему и убедитесь в отсутствии негативных отзывов. Если отрицательные отзывы есть, то на них нужно реагировать: можно дать аргументированный ответ, договориться об удалении комментария или принять любые другие меры. В случае бездействия могут снизиться основные конверсионные показатели.
- Проверьте сайт на наличие вирусов и на присутствие в различных спам-базах.
- Проверьте IP-адреса соседних сайтов — если кто-то занимается мошенничеством, то лучше подобрать новый IP-адрес.
- Убедитесь в использовании качественных внешних ссылок.
- Проанализируйте поведенческие факторы и убедитесь, что никто из команды не занимается накруткой этого показателя.
В конце технического аудита вбейте в поиск свои контактные данные и убедитесь в том, что они не используются на чужих ресурсах. Если используются — срочно принимайте меры по их удалению: начните с телефонного звонка или письменного обращения. Если не помогает — обращайтесь к юристам и готовьтесь к суду.
Этап №3. Выполните анализ постраничной оптимизации. Перечислим основные параметры, которые нужно проверить для каждой страницы:
- Проанализируйте URL-адреса. Их рекомендовано составлять на транслите, делать не слишком длинными, наполнять интентами и ключевыми словами. В промежуток между словами лучше вставлять дефис вместо пробела. Также нужно следить за переспамом: если в названии домена используется определенный ключ, то это же ключ не стоит использовать в URL-адресе.
- Проверьте тайтл и дескрипшн. Тайтл должен ограничиваться 60 символами, должен содержать ключевые слова, интенты и быть привлекательным для клика. Дескрипшн должен состоять из коротких информативных предложений (до 155 символов), которые содержат ключевые запросы и дополняют тайтл.
- Пройдитесь по заголовкам h2-H6. Заголовки не должны использоваться в элементах дизайна и в служебных элементах. Заголовок Н1 должен присутствовать только один раз на странице, а у остальных заголовков должна соблюдаться правильная иерархия Н2 → Н6. Не стоит комбинировать заголовки с другими тегами (курсив или полужирный), поскольку для этого будет использоваться каскадная таблица стилей. По возможности добавляйте в заголовки ключевые слова, которые можно применить без спама.
- Проанализируйте тексты на тех страницах, которые приносят больше всего органического трафика. Тексты нужно проверить на уникальность, на орфографические ошибки и на спамность. Важно, чтобы в статьях не было неестественных вхождений и полужирного выделения ключевых слов.
- Пройдетесь по основных страницам и проверьте целостность добавленных изображений. Убедитесь, что все файлы хранятся на хостинге сайта и не пропадут в случае сбоя на стороннем сервере. Заполните все атрибуты альтернативного текста изображения, кратко опишите содержимое и по возможности добавьте в описание доступные ключевые слова.
- Настройте перелинковку страниц. Перелинковка может быть представлена в виде ссылок внутри текста, в виде похожего товара в интернет-магазине или в виде статей по теме на информационных сайтах. Перелинковку уместно добавлять во всех ситуациях, когда она помогает решить какую-то пользовательскую потребность. От бесполезных ссылок нужно избавиться. Больше информации смотрите в статье «Внутренняя перелинковка сайта: раскрываем главный SEO секрет».
- Поработайте со сниппетами. Проверьте заголовок и URL-адрес, а также проследите за тем, чтобы у сайта был фавикон в хорошем разрешении. Добавьте сайт в Яндекс.Справочник, Google. Адреса организаций, Prom.ua и другие доступные интернет-каталоги организаций. Сделайте читаемый регистр имени сайта в поиске. Попробуйте добавить на сайт расширенный сниппет и пользуйтесь звездным рейтингом Гугл — добавляйте рейтинги на все доступные страницы.
Помимо перечисленных вариантов существует множество других способов постраничной оптимизации. Если у вас хватит времени их осилить — пользуйтесь и внедряйте. Чем тоньше SEO-настройка, тем выше позиции сайта.
Этап №4. Проанализируйте трафик. Проведение этого этапа у вас появятся дополнительные возможности для развития сайта и привлечения органического поискового трафика. Для выполнения аудита выполните следующее:
- Проверьте CTR и проанализируйте кликабельность оставленных запросов. Для этого проранжируйте запросы от меньшего к большему, уберите вхождения с минимальным количеством показов, введите оставшиеся запросы в поисковую систему и посмотрите как представлен сайт. Если нет времени на анализ всех запросов, то начните проверку с высокочастотных вхождений. Чаще всего плохой CTR связан с неточным сниппетом или некачественной страницы, на которой опубликована второсортная информация. Если будете редактировать сниппет — сохраняйте скриншоты всех предыдущих версий и при любых проблемах возвращайтесь к исходным позициям.
- Проведите анализ каннибализации — это тот случай, когда по одному запросу поисковик выдает несколько страниц сайта. Во время проверки особое внимание нужно уделить тем страницам, которые получают примерно одинаковое количество трафика — в счет не идут те ситуации, когда это сделано специально и когда трафик перетягивают AMP-страницы, созданные для быстрого отображения на мобильных устройствах. Если на сайте обнаружена каннибализация, то релевантность нужных страниц будет повышаться за счет добавления нового текста и дополнительных ссылок.
- Проанализируйте ключевые слова через систему аналитики. Обратите внимание на запросы с высокой и низкой конверсией, на запросы с низкими показателями отказа, на запросы приносящие основной конверсионный трафик и на запросы-аутсайдеры. Соберите данные и подумайте, добавление каких новых ключей поможет привлечь больше пользователей на сайт.
Анализируя поисковый трафик особое внимание уделяйте тем страницам, которые оказались вне индекса или затерялись в выдаче по какому-то определенному запросу. Подобные ситуации могут быть связаны с появлением сильного конкурента, санкциями или некачественным контентом. Примите меры — вернете аудиторию.
Этап №5. Сделайте анализ поведенческих факторов. Через поведенческие факторы поисковики могут видеть, насколько пользователи удовлетворены сайтов и насколько полно размещенный контент отвечает вводимым запросам. Для анализа поведенческих факторов подойдет следующий план:
- Посмотрите на страницы выхода — это те страницы, после посещения которых пользователи покидают сайт. Например, если в интернет-магазине страницей выхода выступает корзина товара, то все работает правильно. Если же пользователи покидают сайт не доходя до корзины, то что-то не так с промежуточными страницами. Во втором случае нужно вручную переходить в проблемные разделы и искать варианты решения.
- Поработайте с пользовательской статистикой. Выясните среднее количество просмотров за день, узнайте среднее время пребывания на сайте, вычислите самые популярные разделы и страницы с самым большим количеством отказов. Понаблюдайте за пользователями и узнайте, как они взаимодействуют с сайтом — чем больше данных соберете, тем большее количество проблемных мест получится исправить. При сборе статистики удобно использовать карту кликов Plerdy. Если впервые слышите об этом сервисе — почитайте про «39 преимуществ карты кликов Plerdy».
- Изучите источники трафика и проследите за тем, чтобы сохранялась положительная динамика. Если есть простой или спад, то нужно открывать источник и разбираться с тем, почему пользователи перестали посещать сайт.
- Проанализируйте основные конверсионные показатели, выделите все проблемные страницы и разберитесь в их причинах. Дополнительную информацию о конверсии вы найдете в статье «Что такое оптимизация конверсии сайта и как она влияет на увеличение продаж».
Для улучшения поведенческих факторов всем сайтам рекомендовано публиковать контактные данные и страницу о компании — это повышает доверие и улучшает позиции сайта в поисковой выдаче. Также можно добавить информацию о доставке, о способах оплаты, о гарантиях, о службе поддержки, о сервисе возврата товаров и прочих полезных услугах. Весь материал можно дополнить фотографиями, видео, картами проезда, отзывами и блок ответов на популярные вопросы. Не забудьте указать цены, рассказать об услугах и предоставить готовые кейсы.
Этап №6. Проведите анализ внешних ссылок. Из-за внешних ссылок сайт часто попадает под санкции, поэтому вся ссылочная масса должна находиться под постоянным наблюдением. Вот комплекс мер, которые помогут все контролировать:
- Проверьте диверсификацию и убедитесь в том, чтобы ссылки не исходили из одного источника.
- Вручную протестируйте все ссылки на спамность: кликните по ссылке и оцените качество донорной площадки. Если качество ресурса сомнительное, то такую ссылку стоит сразу закрыть.
- Проверьте равномерность распределения ссылок между акцепторами сайта — страницами на которые ссылаются размещенные ссылки.
- Сравните собственную ссылочную базу с ссылочной базой конкурентов. После анализа у вас должны появится новые доноры и идеи для расширения.
Теперь вы знаете, как работает поисковая оптимизация и как выполнить SEO-аудит. В следующем разделе мы закрепим эти знания на практике и вы сможете посмотреть реальный пример готового технического аудита.
Практика
Перед проведением аудита нужно изучить сайт, исправить очевидные ошибки и подготовить контрольный список проверки содержания сайта. После проверки этот контрольный список нужно оформить в виде чек-листа и прикрепить к отчету. Так будет видно, какая работа проделана, что исправлено и какие моменты нужно подкорректировать. Здесь же даются дополнительные указания по улучшению сайта.
Готовим контрольный список проверки содержания сайта
Подготовка контрольного списка — это одна из самых трудоемких работ всего SEO-аудита. Вы не можете взять готовый шаблон и просто пройтись по его содержимому — у каждого сайта свои характеристики и свой алгоритм проверки. Поэтому пока не изучите сайт — не составите качественный контрольный список для проверки. В рассматриваемом примере мы будем проверять следующие пункты:
- Анализ основного зеркала и единого формата URL
- Анализ файлов robots.txt и sitemap.xml
- Анализ HTTP-заголовков и ошибки 404
- Анализ битых ссылок
- Анализ человекопонятных URL (ЧПУ)
- Анализ метатегов title, description, keywords
- Анализ оптимизированных заголовков
- Анализ скорости загрузки страниц
- Анализ микроразметки
- Анализ страниц пагинации
- Анализ лишнего кода на страницах сайта
- Анализ дублирующих элементов на сайте
- Анализ последовательности ссылок на страницы товара
- Анализ оптимизации изображений
- Анализ лишних внешних ссылок с сайта
- Анализ индексации технических страниц
- Анализ ссылочной базы сайта
Обратите внимание на составленный контрольный список. В анализ включены только те пункты, которые отвечают за техническую часть сайта. Если вы стремитесь стать лидером поисковой выдачи, то нужна более обширная проверка. О том, что это за проверка и из чего она должна состоять рассказывается в теоретическом блоке.
Проводим технический SEO-аудит по составленному контрольному списку. Сайт: store.google.com
В этом разделе мы пройдемся по содержимому составленного контрольного списка. Если после изучения материала останутся вопросы — оставляйте их в комментариях.
1) Аудит основного зеркала и единого формата URL
На сайте должно определяться основное зеркало сайта, которое может использоваться как с приставкой «www», так и без нее. Для остальных зеркалах нужен 301 редирект, который будет перенаправлять трафик на основной сайт.
Если открыть главную страницу с приставкой «www», то 301 редирект не срабатывает. Это проблема, которую нужно настраивать.
Нерабочий 301-редирект на главная странице зеркала.
Если же мы откроем страницу с протоколом http, то 301 редирект срабатывает корректно. Здесь никаких дополнительных действий не требуется.
Страница с рабочим 301 редиректом.
Если выполнить переход на сайт по прямой ссылке, то отображается 302 редирект. Обычно он используется для временного перенаправления трафика на другую страницу — в нашем случае перенаправление идет на страницу выбора региона.
Страница с рабочим 302 редиректом.
Отчет: допущены ошибки по формированию основного зеркала сайта. Также проставлен 302 редирект, который в будущем нужно удалить или заменить на 301 редирект. |
2) Аудит файлов robots.txt и sitemap.xml
На сайте должны присутствовать файлы robots.txt и sitemap.xml. Если их не будет или они будут не настроены, то возникнут проблемы с поисковой индексацией.
Файл robots.txt добавлен на сайт и в нем отмечены страницы, которые не должен индексировать робот Adsbot-Google.
Поскольку robots.txt закрывает страницы от Adsbot-Google, эти же страницы должны закрываться от AdsBot Mobile Web Android и AdsBot Mobile Web. Если не провести настройку, то сайт будет не правильно индексироваться на мобильных устройствах.
Robots.txt не закрывает страницы от AdsBot Mobile Web Android и AdsBot Mobile Web.
Одна из закрытых для индексации страниц отображается с кодом ответа 405. Скорее всего здесь поврежден php-скрипт, отвечающий за перенос данных на сайт.
Поврежденная страница с кодом 405.
Все URL-адреса, которые заканчиваются на «/category» или «/product» нужно закрывать от индексации. В противном случае на страницах появится 404 ошибка.
404 ошибка в URL-адресах «/category» и «/product».
Для индексации каталогов начинающихся на «/category» или «/product» нужно вносить изменения в robots.txt. Для этого добавляем во все URL-адреса закрытый тег: «/category» → «/category/» и «/product» → «/product/».
Корректируем robots.txt и делаем URL-адреса с закрытым тегом.
Файл sitemap.xml добавлен и настроен под 36 языков, под которые может адаптировать сайт — это 1917 переведенных страниц. Также добавлен атрибут
alternate и тегу hreflang, которые позволи исклюсить дубли страниц.
Карта сайта адаптирована под 36 языков и показывается без дублей страниц.
Через определенное количество главных страниц изменилось значение тега priority: было 1, а стало 0,9. Priority — это относительный показатель, на который ориентируются поисковики во время выстраивания очереди индексированных страниц сайта. Чем выше значение тега priority, тем раньше будет проиндексирована страница. Поэтому нужно вручную пересмотреть те страницы, для которых произошло снижение показателя — если это ключевые страницы, то нужно менять приоритете индексации. Если их индексация может подождать, то ничего не меняем.
Отмечаем измененные показания тега priority.
URL-адреса указаны с GET-параметрами. GET-параметр — это вся запись, которая поделена амперсандом «&» и отображается в URL-адресе сразу после вопросительного знака «?». GET-параметры могут привести к появлению дублирующих страниц и бесполезной растрате краулингового бюджета.
GET-параметры URL-адресов.
Также на страницах с GET-параметрами прописан атрибут canonical, помогающий поисковым роботам определить приоритетные URL-адреса для индексации. Нужно проверить работоспособность этого атрибута: если он поставлен правильно, то дублирующие страницы не отобразятся.
Атрибут canonical в URL-адресах с GET-параметрами.
Прогоняем URL-адреса с GET-параметрами через валидатор и получаем положительный результат. Это значит, что страницы индексируются правильно и дополнительные действия не требуются. Если в будущем произойдет сбой и появятся дубли, то в первую очередь владельцу сайта нужно перепроверить атрибут canonical.
Проверяем атрибут canonical через валидатор и получаем положительный результат.
Отчет: файлы robots.txt и sitemap.xml добавлены, однако нуждаются в точечных настройках. Внесенные изменения улучшат индексацию многих страниц сайта. |
3) Аудит HTTP-заголовков и ошибки 404
Если на сайте нет запрашиваемого URL-адреса, то сервер должен отобрать 404 ошибку. Страница с 404 ошибкой должна быть оформлена таким образом, чтобы пользователь мог продолжить работу с сайтом. Иначе будет потеря трафика.
Страница с 404 ошибкой добавлена и запрограммирована перенаправлять пользователей на сайт.
При желании страницу с 404 ошибкой можно дополнить текстом и стилизовать под тему сайта. Если ничего не делать, то браузеры используют стандартный дизайн.
Страница с 404 ошибкой в стандартном дизайне Гугла.
На анализируемом сайте есть несколько ошибок в HTTP-заголовках, которые приводят к некорректному ответу сервера на ошибку 404. Если ввести не точный запрос на странице с GET-параметрами, то вместо 404 ошибки появится страница с каноническим URL-адресом — отобразится дублирующая страница, которая которая ранее закрывалась от индексации.
Введение некорректного запроса загружает страницу с каноническим URL-адресом.
Все URL-адреса с подобной проблемой нужно фиксировать и отправлять на редактирование. В результате вместо 200 ошибки должна отражаться ошибка 404.
В проблемных URL-адресах 200 ошибку нужно поменять на ошибку 404.
Если страница выдает 200 ошибку, то это значит что она проиндексировалась и оценивается поисковыми роботами. Если таких страниц будет много и они не будут удаляться из базы, то это негативно повлияет на продвигаемые страницы.
Еще пример проблемного URL-адреса, в которому 200 ошибку нужно поменять на ошибку 404.
Если страница с 200 ошибкой переделывается под ошибку 404, то поисковым системам понадобится время, чтобы автоматически удалить такую страницу из индекса. Сроки у поисковых системах разные и некоторым сайтам Яндекс склеивал страницы только спустя год. Чтобы подобного не допускать — проводите регулярный аудит и для всех медленно удаляемых страниц используйте 301 редирект.
URL-адрес с правильно настроенной ошибкой 404.
Отчет: страница с 404 ошибкой добавлена и отображается в стандартном браузерном дизайне. Если несколько ошибок в HTTP-заголовках и есть проблемы при вводе неточных запросов на страницах с GET-параметрами — вместо 404 ошибки отображается ошибка 200. |
4) Аудит битых ссылок
Битые ссылки ведут на несуществующие страницы, документы, файлы или изображения. Это снижает поведенческий фактор и мешает сайту продвигаться. Поэтому все битые ссылки нужно отслеживать и своевременно удалять.
Проверка URL-адресов в Screaming Frog SEO Spider — все 1741 ссылок в рабочем состоянии.
Отчет: битые ссылки отсутствуют. Это подтвердили результаты ручной и автоматической проверки через программу Screaming Frog SEO Spider. |
5) Аудит человекопонятных URL (ЧПУ)
Для всех страниц сайта рекомендуется использовать человекопонятный урл или ЧПУ: вместо «- site.com/?pag=1&24%» используем «site.com/catalog». Релевантные слова в URL-адресе дают поисковикам больше информации о странице и лучше считываются пользователями, которые видят названия ссылок в сниппете.
На анализируемом сайте большая часть страниц идет с человекопонятными URL-адресами, однако есть несколько недоработок. Если просматривать страницы сайта через страницу выбора региона, то на протяжении всего сеанса URL-адрес будет отображаться с GET-параметрами.
GET-параметры создают плохо считываемые URL-адреса.
Если мы откроем страницу «Phones» и выберем раздел «Pixel Cases», то появится страница с аксессуарами, на которой по умолчанию проставлено несколько фильтров. Такая техническая реализация приводит в формированию нечитаемого URL-адреса.
Внедрение автоматических фильтров создает нечитаемые URL-адреса.
Чтобы поменять URL-адрес в разделе с автофильтрами мы прописываем все слова гиперссылки через нижний дефис «_». Так пропадает склейка, а поисковикам и пользователям будет удобней работать со страницей.
Проставляем нижний дефис и создаем человекопонятный урл.
Отчет: практически на всех страницах используется человекопонятный URL-адрес. Если несколько недоработок, которые связаны с использованием GET-параметров и автофильтров в каталоге товаров. |
6) Аудит метатегов title, description, keywords
Заголовок страницы указывается с помощью тега title — он виден пользователям и поисковым роботам. По этому тегу пользователи находят те сайты, которые максимально полно соответствуют введенному запросу. Из-за этого title желательно делать уникальным, информативным и привлекательным для клика.
На главной странице проверяемые метатеги отображаются и работают корректно.
Метатег description — это элемент, который дополняет содержимое title. Description можно расширить на несколько предложений и в краткой форме передать суть просматриваемой страницы. Description важен для поискового продвижения и должен присутствовать на каждой странице. Если страниц много и вручную прописать description не получается, то можно использовать программы-маски, способных генерировать описание в автоматическом режиме.
На странице категорий проверяемые метатеги отображаются и работают корректно.
Метатег keywords — это перечень основных ключевых запросов, которые используются на просматриваемой странице. Без этого метатега поисковики будут дольше находить релевантный запрос и во всех случаях будут отдавать предпочтение тем сайтам, в админке которых заданы keywords.
На странице товаров проверяемые метатеги отображаются и работают корректно.
Отчет: на всех страницах анализируемого сайта метатеги title, description, keywords проставлены и оптимизированы. Эта тенденция должна сохраняться и дальше. |
7) Аудит оптимизированных заголовков
Заголовки формируют структуру страницы и делают материал удобным для изучения поисковиками и пользователями. Заголовки обладают шестиступенчатой иерархией и проставляются от большего (Н1) к меньшему (Н6).
На сайте есть страницы, где заголовка Н1 или он представлен в виде дубля.
Чтобы создать простую и удобную навигацию, размер заголовков не должен подаваться в хаотичном порядке. Менять иерархию от Н1 до Н6 уместно только в том случае, если это помогает лучше структурировать подачу материала — в качестве примера можете пройтись по заголовкам этой статьи.
Большинство дублей заголовка Н1 встречается на страницах товара.
И еще нюанс — заголовок размера Н1 должен присутствовать только в начале страницы. То есть сначала вы добавляете Н1, а после думаете, как выстроить иерархию заголовков Н2-Н6.
Заголовки Н1 не проставлены на главных страницах и на страницах категорий.
Заголовки рекомендовано дополнять ключевыми запросами. Здесь важно помнить, что это только рекомендация и если в какой-то из заголовков добавлять ключи неуместно, то делать этого не стоит — сохраняем удобочитаемость и помним, что в первую очередь пишется для людей.
Дубли заголовка Н1 отправляются в отдельный блок с атрибутом «display:none!important».
8) Аудит скорости загрузки страниц
75% пользователей закрывают сайт, страницы которого загружаются дольше 4 секунд. А для 50% пользователей норма загрузки не должна превышать 2 секунд.
Если не уложиться в этот стандарт, то потеряете часть трафика и позиции в выдаче — скорость загрузки страниц входит в список параметров, которые поисковые системы учитывают при формировании рейтинга сайтов.
Проверка скорости загрузки главной страницы сайта через сервис GTmetrix. В примере представлена версия сайта для США. Аналогично проверим версию сайта для Великобритании.
Если сайт небольшой, то желательно провести проверку всех его страниц. Для этого можете использовать сервисы GTmetrix, Pingdom Website Speed Test и Google PageSpeed Insights. Если страниц много, то понадобится выборочная проверка. В нашем случае мы проверим главную страницу, страницу категорий и страницу товаров. Во время проверки не забываем про источники пользовательского трафика и делаем замеры как для десктопных, так и для мобильных устройств.
Проверка скорости загрузки страницы категорий через сервис Pingdom Website Speed Test. В примере представлен сайт для Великобритании. Аналогично проверим версию сайта для США.
Проверяем среднюю скорость выбранных страниц на десктопных устройствах: средняя скорость отклика главной страницы составила 1,8 секунды, страницы категорий 4 секунды, страницы товаров — 2,8 секунд. На мобильных страницах эти же страницы открываются дольше 4 секунд.
Проверка скорости загрузки страницы товары через сервис Google PageSpeed Insights. В примере представлен сайт для Великобритании. Аналогично проверим версию сайта для США.
Отчет: на сайте много проблем со скоростью загрузки страниц. В стандарт вписывается только главная страница, открываемая на десктопных устройствах. Все остальные страницы выходят за пределы нормы. Мобильная версия сайта проверку не прошла и нужно повышать скорость всех страниц. |
9) Аудит микроразметки
Микроразметка помогает поисковым роботом и другим сервисным программам лучше ориентироваться в структуре сайта. Из-за этого снизится скорость обработки информации и сайт будет медленней индексироваться. Если не планируем этого допустить — следим, чтобы поисковая система сайта содержала микроразметку.
Микроразметка бывает разной и для каждого сайта может подбираться индивидуально. Однако чаще всего используются хлебные крошки и звезды рейтинга документа. Еще мы добавим микроразметку Open Graph, которая разработана для социальных сетей и предназначена для удобного структурирования контента.
На сайт нет микроразметки для хлебных крошек.
Микроразметка добавляется в виде HTML-кода, который содержит специальные атрибуты и не требует дополнительного экспорта файлов:
Пример программного кода для настройки хлебных крошек
Пример программного кода для разметки страниц категорий
Пример программного кода для разметки главной страницы
Чтобы найти нужный HTML-код — используйте словарь семантической микроразметки Schema.org. В 2020 году это стандарт, которого придерживаются все крупные поисковые системы.
На всех страницах сайта есть только одна микроразметки Schema.org. В программный код внесено слишком мало данных, поэтому создать удобную структуру не получится
Микроразметку Open Graph настроена правильно и в ее состав включены следующие элементы: title, type, site_name, url, description и image.
Проверяем микроразметку Open Graph.
Отчет: на сайте нет хлебных крошек, а в размещенный HTML-код добавлено недостаточно данных. Микроразметка Open Graph настроена правильно. |
10) Аудит страниц пагинации
Страницы пагинации — это те страницы, которые не продвигаются и используются для показа каталога товаров. Во время настройки страниц пагинации нужно следить за тем, чтобы из-за них не появились дубли и дополнительные метатеги. Если этот момент не отследить, то сайт будет хуже индексироваться в поисковой выдаче.
Страницы пагинации не настроены и переключение страниц товаров реализовано через скрипты.
Отчет: страницы пагинации не настроены. Это усложняет юзабилити сайта и не позволяет использовать лучшие методы поисковой оптимизации. |
11) Аудит лишнего кода на страницах сайта
Если на сайте будет лишний код, то он усложнит поисковым системам изучать содержимое контента. Из-за этого пострадает скорость индексирования проблемных страниц и может увеличиться время загрузки. Чтобы этого не допустить — весь лишний код отслеживаем и удаляем.
Объемные блоки стилей нужно добавлять во внешнюю таблицу CSS.
Чаще всего лишний код отображается из-за длинных комментариев. Еще бывают проблемы с описанием стилей в теги style
, скрипты script
и прочие нарушения.
Различные скрипты нужно переносить во внешний файл JavaScript.
Отчет: на сайте есть лишние фрагменты программного кода. Они отображаются на тех страницах, где есть объемное описание блоков со стилями. |
12) Аудит дублирующих элементов на сайте
Дублирующие страницы снижают уникальность опубликованного контента и мешают сайту наращивать позиции в поисковой выдачи. Часто дублирующие фрагменты текста встречаются на страницах фильтров и пагинации, где есть много карточек товаров, нуждающихся в кратком описании. Все дубли нужно отслеживать и удалять.
На анализируемом сайте дублей нет. Мы не считаем за дубли те страницы, которые отображают страницы сайта на разных языках и настроены с помощью атрибутов canonical и alternate.
Отчет: сайт отображается без дублирующих страниц. За дубли мы не считаем те страницы, которые дублируют контент на других языках. |
13) Аудит последовательности ссылок на страницы товара
Если на сайте будет чрезмерное количество неправильно настроенных ссылок, то это приведет к критическим ошибкам: появятся дублирующие страницы, снизится скорость загрузки сайта, возникнут проблемы с индексацией. Поэтому последовательность всех ссылок нужно постоянно анализировать и исключать из цепочки все ненужные URL-адреса.
Последовательность ссылок реализована корректно: за каждым товаром закреплен только тег a
, поэтому при смене фотографии URL-адрес отображается без изменений.
Отчет: последовательность ссылок на страницу товара реализована правильно. В будущем нужно придерживаться заданного алгоритма и без надобности не добавлять лишние теги в созданный каталог. |
14) Аудит оптимизации изображений
У каждого изображения должно быть имя и атрибут «alt». Это позволяет поисковикам лучше понимают содержимое сайта, а пользователям изучать контент в тех случаях, когда по каким-то причинам изображения не отображаются. Еще для оптимизации можно использовать тег title — это короткий текст, который будет появляться при наведении курсора мыши на изображение.
Все изображение оптимизированы и идут с заполненным атрибутом «alt».
Отчет: изображения сайта оптимизированы: у каждого файла есть имя и атрибут «alt». Когда другие работы по сайту будут выполнены — можно прописать тег title и улучшить оптимизацию. |
15) Аудит лишних внешних ссылок с сайта
Без необходимости не стоит давать ссылки на другие ресурсы, поскольку за счет этого вы теряете трафик и делаете сайте непривлекательным в глазах поисковых роботов. В этом же время допускаются ситуации, когда ссылки даются на лендинги, форуму, соцсети и другие ресурсы, которые помогают продвигать сайт.
Сайт ссылается на 14 внешних ресурсов — это субдомены Гугл и авторитетные сайты.
Отчет: каких-либо проблем с оптимизацией внешних ссылок не обнаружено. Все URL-адреса добавлены правильно и корректно отображаются. |
16) Аудит индексации технических страниц
Технические страницы нужно закрывать от индексации не только через файл robots.txt, но и через метатеги в элементе HEAD
. Также нужно проставить атрибут «rel=”», который запрещает переход по ссылкам на закрытых страницах.
Bing и Гугл индексируют страницы с GET-параметрами несмотря на проставленный атрибут «canonical». Если ситуацию оставить как есть, то появятся дубли.
URL-адреса с файлом «/config/» ведуту не на товар, а на страницу покупки — такие ссылки нужно закрывать от индексации. Чтобы это сделать, сначала нужно убрать проставленный атрибут «canonical», а после внести изменения в robots.txt.
Проблемные URL-адреса с файлом «/config/» и проставленным атрибутом «canonical».
От индексации не закрыта страница авторизации. Для исправления ситуации забираем «canonical» и корректируем файл robots.txt.
Страница авторизации проиндексировалась и попала в поисковую выдачу.
От индексации не закрыта страница с историям заказов. Повторяем процедуру: убираем «canonical» и вносим изменения в robots.txt.
Страница с историей заказов проиндексировалась и попала в поисковую выдачу.
По умолчанию страница поиска не содержит в себе информацию, поэтому ее также нужно закрыть от индексации. Удаляем «canonical», дополняем robots.txt.
Страница поиска проиндексировалась и попала в поисковую выдачу.
Отчет: индексация технических страниц выполнена с ошибками. Есть некоторые URL-адреса, которые нужно закрывать принудительно путем внесения изменения в robots.txt и HTML-код. |
17) Аудит ссылочной базы сайта
На сайте представлена расширенная ссылочная база, поскольку продукция Google Store продается в 36 странах мира. На сайте ссылается 32 399 доменов, среди которых активней других работает Google Play — 3 313 316 ссылок на Google Store.
Список ссылочной базы сайта.
Если не учитывать Google Play, то все домены с атрибутом «dofollow» ведут на различные блоги и форумы — всего 32 404 ссылки. Также есть 5 746 доменов, которые представлены с атрибутом «» — преимущественно за этими ссылками стоят интернет-издательства и информационные порталы, на которые поисковым роботам переходить не обязательно.
Список доменов с атрибутами «dofollow» и «».
Отчет: ссылочная база сайта развита и не содержит вредоносных доноров. Часть ссылок закрыта атрибутом «», однако это сделано для удобства и никак не влияет на безопасность. |
Оформляем чек-лист по контрольному списку SEO-аудита
В завершающей части технического аудита формируем чек-лист, в котором в краткой форме описываем результаты проведенной проверки:
1 | Основное зеркало и единый формат URL | Есть ошибки при формировании основного зеркала и для одной из страниц использован временный 302 редирект |
2 | Файлы robots.txt и sitemap.xml | Файлы добавлены, но нуждаются в настройке |
3 | HTTP-заголовки и ошибка 404 | Страница с ошибкой 404 добавлена и отображается. Если проблемы с HTTP-заголовками и URL-адресами с GET-параметрами |
4 | Битые ссылки | Битых ссылок нет |
5 | Человекопонятный URL (ЧПУ) | Основные страницы идут с человекопонятными URL-адресами, однако есть недоработки связанные с GET-параметрами и автофильтрами в каталоге товаров |
6 | Метатеги title, description, keywords | Метатеги проставлены, отображаются и не нуждаются в доработке |
7 | Оптимизированные заголовки | На сайте много проблем с заголовками Н1 и для исправления ситуации подготовлен отдельный файл с перечнем всех URL-адресов |
8 | Скорость загрузки страниц | Большинство страниц сайта медленно отображаются как на десктопных, так и на мобильных устройствах |
9 | Микроразметка | Микроразметка добавлена, однако внесенного количества данных недостаточно для формирования понятной поисковой системы |
10 | Страницы пагинации | Страницы пагинации не настроены и переключение между страницами товаров реализовано через программные скрипты |
11 | Лишний код на страницах сайта | Есть фрагменты кода, которые нужно удалять или переносить |
12 | Дублирующие элементы на сайте | Дублей нет |
13 | Последовательность ссылок на страницу товара | Последовательность ссылок реализована правильно |
14 | Оптимизация изображений | Изображения оптимизированы |
15 | Лишние внешние ссылки с сайта | Все внешние ссылки проставлены правильно |
16 | Индексация технических страниц | Часть технических страниц нужно закрывать принудительно |
17 | Ссылочная база сайта | Ссылочная база развита и составлена без вредоносных доноров |
Если после проведения SEO-аудита вы хотите получить полезный чек-лист — делайте его параллельно проверке и сразу фиксируйте все замечания. Если отложите подготовку чек-листа на конец отчёта, то после проведения всех этапов аудита можете не вспомнить многих важных нюансов. Так не хорошо.
Запомнить
- Если вы откроете таверну и никому о ней не рассказать, то останетесь без клиентов и выручки.
- Если запустите сайт и не будете заниматься SEO, то не попадете в ТОП-10 и не сможете заработать.
- Если не будете проводить SEO-аудит, то не сможете закрепиться в лидерах поисковой выдачи и уступите конкурентам.
- Современное SEO — это только разрешенные приемы, которые позволяют продвигать сайт и бороться с конкурентами. Любая хитрая оптимизация дает непродолжительный эффект и приводит к потере набранных позиций.
- SEO-оптимизация состоит из комплекса действий, повышающих рейтинг сайта и выводящего его из N-го места в ТОП-10 → ТОП-3 → ТОП-1.
- Поисковая оптимизация нужна всем, кто планирует развивать сайт не менее десяти лет. Без нее сложно получить бесплатный органический трафик.
- Основными компонентами SEO-оптимизации выступают контент и юзабилити.
- Настроенный и полностью оптимизированный сайт нуждается в регулярном SEO-аудите. Только с помощью аудита можно узнать о текущих проблемах и возможностях для будущего продвижения.
SEO хостинг | Влияние хостинга на продвижение сайта
На продвижение сайта влияет большое количество различных как внешних так и внутренних факторов, это и качественный полезный контент и удобство пользования ресурсом, seo оптимизация, доверие к ресурсу и оценка пользователей, а также многие другие. Одним из важных факторов является и хостинг, на котором сайт размещён. На первый взгляд его влияние менее очевидно, но опытные seo специалисты знают, что этот фактор нельзя упускать из виду.
Давайте разберемся, какие технические параметры хостинга и как именно влияют на продвижение сайта.
Хостинг это услуга по предоставлению технических ресурсов для размещения сайта на сервере с постоянным доступом к сети и именно от качества данной услуги во многом будет зависеть и скорость продвижения размещаемого на нем сайта
Привязка к географическому положению
Наилучший вариант, это когда сервер на котором размещается сайт, находится в том же регионе, где и основная целевая аудитория. Это дает возможность поисковым системам правильно привязать сайт к региону в котором расположен, а также позволит уменьшить длину пути передачи данных, а значит повысит время отклика и скорость загрузки сайта. Последний параметр максимально важен для сайтов, которые содержат большое количество графических изображений, видео и динамических элементов. Оптимальное время ответа не менее 200 мс, а снижение данного показателя очень не благоприятно будет влиять на скорость загрузки.
Скорость загрузки сайта
Кроме географического расположения сервера, на скорость загрузки сайта очень влияют технические характеристики самого сервера, степень его загруженности, производительность программ и аппаратных компонентов. Как правило, эти показатели можно оценить на практике воспользовавшись тестовым периодом на услугу хостинга, выбрав подходящий тарифный план.
Соседи по серверу
Если для размещения Вы выбираете виртуальный хостинг, нужно учитывать, что вместе с вашим сайтом на одном сервере будут располагаться и другие веб-ресурсы. Все они будут иметь общий Ip адрес, общие характеристики сервера и распределять между собой доступную оперативную память. Если тарифный план подобран оптимально, то такое соседство технически не мешает работе сайта, но бывают случаи когда по соседству располагается мошеннический сайт с запрещенным контентом, сайт распространяющий программы с вредоносным кодом или «трафик-генератор» — всё это может привести к снижению скорости работы сайта, негативно повлиять на позиции в поисковых системах, его могут игнорировать поисковые роботы, а также сайт может быть заблокирован.
Как правило, крупные хостинговые компании следят за своими IP адресами, выявляют вредоносные сайты, которые могут негативным образом влиять на качество предоставляемого хостинга и оперативно реагируем на жалобы. Поэтому seo продвижение сайта, напрямую может зависеть от надежности хостинговой компании и качества предоставляемых ею услуг.
Бесперебойность работы
Аптайм или время непрерывной работы сайта — это еще один важный показатель влияющий на продвижение. Его оптимальное значение не менее 99,9% — это процент бесперебойной работы от общего количества времени функционирования сайта, даже небольшое снижение данного параметра говорит поисковым системам о том, что время от времени сайт может быть недоступен для пользователей. Недоступность страницы во время посещения ее поисковым роботом приводит к падению позиций сайта, что сразу негативно сказывается на seo продвижение. Аптайм легко определить самостоятельно подключив счетчик «Метрики». Для этой цели можно воспользоваться внешними сервисами: ping-admin.ru, host-tracker.com.
Крупные хостинговые компании, предпринимают немало усилий для обеспечения стабильности работы своих серверов, информацию об этом можно найти на сайтах хостеров, а также лично убедиться, что Ваш сайт будет стабильно работать на практике воспользовавшись тестовым периодом.
Хостинг от Хостинг Украина
Влияние хостинга на сео-продвижение сайта очевидно, поэтому мы в Хостинг Украина постоянно работаем над оптимизацией наших сервисов, усиливаем нашу ИТ инфраструктуру, осуществляем технический апгрейд наших серверов, повышаем надёжность нашего хостинга.
У нас функционирует уникальная система мониторинга работы оборудования, задача которой не только оповещать о проблемах, но и анализировать прецеденты и прогнозировать их возникновение. Также благодаря облачным решениям мы распределяем нагрузку на сервера хостинга благодаря чему все сайты работают быстро. А в случае возникновения проблем или необходимости произвести обновление оборудования мы осуществляем миграцию сайтов между серверами хостинга, что позволяет без остановки сайта перенести его на другой сервер в облаке.
Среди услуг компании есть разные тарифные планы, которые в первую очередь различаются функциональностью и техническими характеристиками.
Прежде чем размещать сайт на хостинге нужно ответить себе на такие вопросы:
Какова задача сайта?
Анализ тематики, ниши в целом, спрос на товар и так далее, дадут больше понимания в вопросе посещаемости сайта.
Какой будет предполагаемая загрузка сайта?
К примеру, если это новостной портал, то вероятней всего вам нужно подумать о защите от Ddos атак. Выбор нужного пакета хостинга поможет исключить возможные проблемы с подобного рода атаками.
Где локально находится целевая аудитория?
Выбор правильно ГЕО позволит лучше продвигать сайт в том регионе к которому привязана доменная зона сайта и IP.
Как быстро будет расти аудитория и соответственно посещаемость сайта?
Через инструмент Google Trends можно прогнозировать, также можно проанализировать конкурентов через такие сервисы как SimilarWeb и увидеть какой трафик есть среди тех кто находится в топ 10.
Выбор нужной CMS для вашего сайта, тоже немаловажный вопрос. Если это интернет-магазин то скорее всего подойдет платформа Joomla. Если вам нужна визитка или корпоративный сайт то многие посоветуют WordPress.
О влиянии различных факторов в том числе CMS можете прочитать в этой статье.
В соответствии выявленными потребностями можно подобрать пакет услуг который будет оптимально подходить по техническим параметрам и благоприятно влиять на seo продвижение. Например для небольшого сайта может подойти пакет Базовый, а для корпоративных сайтов, популярных блогов и интернет магазинов, функционирование которых влияет на эффективность бизнеса, а также для веб студий у которых повышенная потребность в ресурсах сервера оптимальным выбором является Бизнес-хостинг. Данный вид профессионального хостинга даёт возможность плавно увеличивать ресурсы сервера по мере роста вашего интернет проекта.
Какой бы пакет услуг Вы не выбрали изначально, по мере необходимости в дополнительных ресурсах можно безболезненно перейти на пакет с более расширенным функционалом и с большим объемом оперативной памяти.
Разместив свой сайт на серверах Хостинг Украина Вы получите качественный и удобный в управлении сервис, оптимальную скорость загрузки, бесперебойную работу вашего сайта, безопасность ваших данных и оперативно работающую техподдержку в режиме 24/7/365.
Заказывайте хостинг в компании “Хостинг Украина”. У нас Вы сможете подобрать тот пакет услуг, который максимально будет соответствовать потребностям вашего бизнеса.
Качественный и не дорогой SSD хостинг от 1$, VPS на SSD от 12$, Cloud (облачный) хостинг от 3$, облачный VPS от 6$. Выделенный сервер или dedicated server.
Просто выберите домен, хостинг и установите подходящую CMS в один клик.
Мы предлагаем лучший виртуальный хостинг для сайтов на Joomla, WordPress и других популярных CMS с поддержкой PHP, Perl, MySQL.
У нас круглосуточная техническая поддержка, которая поможет решить любые возникшие вопросы относительно хостинга или домена.
Только зарегистрированные пользователи могут оставлять комментарии
Влияние местоположения IP-хоста на ваш сайт SEO
Временная шкала
Вот ключевые даты для изменений:
- IP-адрес изменен на США 17 февраля 2015 г. (45.56.123.58)
- IP-адрес вернулся на IP-адрес Великобритании 28 февраля 2015 (46.38.178.86)
- Repeat Test: настройки возвращены на IP США 9 марта 2015 г. (45.56.123.58)
- Repeat Test: возвращены на IP UK 17 марта 2015 г. (46.38.178.86)
Data
Это наш собственный рейтинг видимости результатов поиска в Великобритании (щелкните, чтобы увеличить):
Как видите, сразу после первого изменения (17 февраля) наблюдается снижение.Падение довольно значительное (мы отслеживаем 281 ключевое слово, которые представляют ряд важных коммерческих, фирменных и информационных поисковых запросов с объемом поиска). Наш IP-адрес хоста был возвращен на IP-адрес Великобритании 28 февраля. В данных удивительно то, как быстро Google реагирует на это изменение. Смена IP повторяется, и наблюдается аналогичное поведение.
Это данные Searchmetrics для Великобритании (нажмите, чтобы увеличить):
Очевидно, мы все еще ждем, когда восстановится второе падение рейтинга.Это обновление должно быть в конце этой недели. Поскольку предыдущее падение и восстановление соответствуют нашему собственному отслеживанию ранга, я очень уверен, что все будет так же.
Это данные Searchmetrics для США (нажмите, чтобы увеличить):
Рейтинги в США выросли довольно неплохо, но падение, когда мы вернемся к IP в Великобритании, не кажется таким значительным. Я действительно не знаю, что здесь думать, так как интервалы обновления Searchmetrics в США не синхронизированы с британскими. Я подозреваю, что к концу этой недели мы увидим падение популярности в США.
Поисковые показы в Инструментах для веб-мастеров, Великобритания (щелкните, чтобы увеличить):
Вы видите аналогичное падение общего количества показов в Великобритании в период с 21 февраля по 1 марта, что соответствует времени первого изменения. Похоже, что то же самое повторяется примерно 17 марта.
Поисковые показы в Инструментах для веб-мастеров США (щелкните, чтобы увеличить):
Я просто не уверен, что это так важно, GWMT сообщает об улучшении количества показов на 5%, но когда в США за этот период у нас было около 886 000 показов. Я думаю, нам нужно немного больше данных, чтобы быть уверенным.Сам IP-адрес находится в Техасе, и, поскольку у нас нет уровня детализации наших рейтинговых данных на уровне штата, очень и очень трудно увидеть, что здесь происходит.
Заключение
Я думаю, что мы наблюдаем колебание рейтинга в Великобритании на 15-20%, вызванное изменением IP из Великобритании и обратно. Отслеживание рейтинга Searchmetrics для их отслеживаемых в Великобритании терминов соответствует колебаниям точно за тот же период, хотя уровень изменения будет другим, поскольку отслеживаемые ими ключевые слова похожи, но не совсем такие же, как у нас.
Когда IP-адрес переместился в США, рейтинг в наборе данных Searchmetrics по США повысился, но оттуда немного сложно определить, что происходит. Я предполагаю, что в конечном итоге мы увидим снижение рейтинга, но данные через неделю или около того, безусловно, помогут.
Важно отметить, что этот тест проводился на домене .com с IP-адресами в Великобритании и США. В случае, если это не очевидно, мы используем CDN для обслуживания статических JS, CSS и изображений, но сам домен (и, следовательно, обслуживаемый HTML) разрешается через фиксированное местоположение, определяемое IP-адресом хоста.
Я поигрался с настройками международного таргетинга GWMT и обнаружил, что настройка нашего «.com» на таргетинг на Великобританию улучшает показы в Великобритании, но снижает количество показов в США. Это вполне понятно. Я не думаю, что это изменение оказало такое сильное влияние на рейтинг в Великобритании, как смена IP.
Если вы используете домен «.co.uk» в Великобритании с IP-адресом в США, ccTLD «.co.uk» может быть достаточно сильным сигналом, чтобы сделать изменение IP неуместным. Я не уверен, что это так, поскольку у нас не было возможности проверить это.
Если вы управляете многорегиональным сайтом, очевидно, что у вас есть href lang и возможность индивидуально настроить таргетинг каждой из ваших подпапок на определенное место в GWMT, но может быть дополнительное повышение рейтинга за счет обслуживания содержимого вашей подпапки через прокси. в соответствующей стране.
Совершенно очевидно, что британская компания, использующая домен .com или не относящийся к Великобритании, должна размещаться в Великобритании. Мне посчастливилось довольно легко протестировать это изменение и увидеть некоторые очень интересные варианты поведения.Однако вы должны провести свои собственные тесты, прежде чем принимать какие-либо решения о вашем хостинге!
Обновлено
Searchmetrics обновлено на этой неделе немного раньше, чем я ожидал — вот обновленная видимость на 25 марта 2015 года:
Как и ожидалось, рейтинги вернулись.
Влияние IP-адреса на SEO
- WooRank
- Руководства по SEO
- Как IP-адрес влияет на SEO?
Что такое IP-адрес?
IP-адрес (Интернет-протокол) — это строка чисел (от 1 до 3 цифр, разделенных точками), которая идентифицирует устройство, подключенное к Интернету или другой компьютерной сети.IP-адреса — это, по сути, код, который позволяет всем устройствам (компьютерам, телефонам, серверам и т. Д.) «Общаться» друг с другом через Интернет независимо от их местонахождения.
Каждое из чисел может находиться в диапазоне от 0 до 255, поэтому IP-адрес может выглядеть так: 23.135.0.206
IP-адреса — одна из самых важных вещей в современных технологиях.
Поскольку они идентифицируют хост, а также местоположение сервера, мы не смогли бы отправлять или получать информацию в Интернете без них.Система не может отправить или получить что-либо, если они не знают, куда это отправить или откуда — это все равно, что бросить пустой конверт в почтовый ящик.
Мы просто не сможем пользоваться Интернетом.
IP-адреса веб-сайтов
Веб-сайты также имеют IP-адреса, назначаемые серверами, на которых они размещены. Веб-сайт может иметь выделенный IP-адрес или может делиться IP-адресом с другими сайтами на своем сервере.
Краткая история IP-адресов
Любой компьютер в сети можно идентифицировать по этому уникальному коду.Его первоначальная версия была Интернет-протоколом версии 4 (IPv4). Этот протокол использовал 32-битный адрес для определения IP-адреса. Более новая версия, названная Internet Protocol Version 6, была разработана в 1995 году и продолжает изменяться.
Этот протокол использует 128-битный адрес для определения IP-адреса. Последнее обновление этого протокола было опубликовано в 2017 году и с тех пор используется.
Какое влияние на SEO оказывает IP-адрес вашего сайта?
IP-адрес вашего веб-сайта не оказывает прямого влияния на вашу SEO-оптимизацию.
В течение долгого времени считалось, что совместное использование IP-адреса с менее уважаемыми веб-сайтами может привести к тому, что Google накажет ваш сайт. В конце концов, если сервер на 99% состоит из порнографии, черных шляпников и мошенников, было бы проще занести весь сервер в черный список и просто пожать плечами 1% невинных сайтов. Сайтов всегда больше.
Конечно, это никогда не сработает. IP-адреса легко изменить, и мошенники просто переместятся, если их сервер попадет в черный список Google.Так что это была бы постоянная игра в крота. У Google есть дела поважнее.
гуглеров заявили об этом еще в 2003 году. Вот видео Мэтта Каттса в 2010 году, подтверждающее это:
Я понимаю, и Google понимает, что общий веб-хостинг бывает, вы не можете контролировать или помогать, кто еще находится на этом IP-адресе или в подсети класса C. Другое дело, что если бы вы предприняли действия только в этой подсети или IP-адресе класса C, спамеры были бы довольно сообразительны, и спамеры часто мигрировали бы и переходили на новый IP-адрес.Так что обычно это не самый масштабируемый способ решения проблем.
Однако наличие выделенного IP-адреса может косвенно повлиять на то, что делает влияет на SEO.
SEO преимущества выделенных IP-адресов
Владение IP-адресом значительно упрощает настройку частного SSL-сертификата , и, как мы все знаем, Google предпочитает веб-сайты с SSL-сертификатами. Фактически, до 2007 года веб-сайты, использующие общие IP-адреса, не могли даже получить сертификаты SSL.
Выделенный IP-адрес также может обеспечить лучшую производительность. Выделенные IP-адреса загружаются быстрее, чем общие IP-адреса. Это приводит к тому, что пользователи (и Google) быстрее попадают на сайт. Наличие локального сервера также может помочь вашему SEO, поскольку физическое расстояние может повлиять на время загрузки сайта.
Веб-сайты с общими IP-адресами могут давать сбой из-за слишком большого трафика (так называемый эффект слэш-точки или «объятие смерти»).
Недостатки общих IP-адресов
Большинство хостинг-провайдеров предлагает «веб-хостинг», «хостинг WordPress» и «выделенный хостинг».При выборе тарифного плана вам нужно знать, сколько общего хостинга имеет один IP-адрес.
Выделенный IP-хостинг имеет только один сайт, в то время как веб-хостинг может быть общим на 10-80%, что делает планы веб-хостинга более доступными. Крупные веб-сайты и сайты электронной коммерции часто используют выделенный IP-адрес, поскольку этим крупным веб-сайтам требуется пропускная способность для обработки большого количества посетителей.
Plus, сайты электронной торговли должны использовать SSL.
Повлияет ли переход с общего IP-адреса на выделенный на SEO?
Выберите лучший IP-адрес для своего веб-сайта
В конце концов, IP-адрес вашего веб-сайта, выделенный или общий, не повлияет на ваши усилия по поисковой оптимизации.Вероятно, рекомендуется использовать выделенный IP-адрес, поскольку он обеспечивает преимущества в производительности и безопасности, но вам лучше выбрать лучший вариант хостинга для вашего бизнеса и сосредоточить свое внимание на создании и реализации эффективной стратегии SEO.
IP-адресов и Закон о защите данных
По словам Уполномоченного по информации, отдельный IP-адрес не является личными данными в соответствии с Законом о защите данных. Но IP-адрес может стать личными данными в сочетании с другой информацией или при использовании для создания профиля человека, даже если имя этого человека неизвестно.
Что такое IP-адрес?
Компьютерам и другим устройствам, подключенным к Интернету, назначаются уникальные идентификаторы, известные как IP-адреса, для идентификации и связи друг с другом.
Интернет-администратором имен и номеров является корпорация ICANN, базирующаяся в Калифорнии. Он делегирует полномочия по управлению и созданию IP-адресов органу, называемому Internet Assigned Numbers Authority (IANA). IANA выделяет блоки адресов одному из пяти региональных интернет-реестров, включая RIPE в Европе.В свою очередь, эти региональные органы выделяют меньшие блоки адресов интернет-провайдерам и организациям.
Самый распространенный тип IP-адреса отображается в виде четырех чисел от нуля до 255, например 83.29.144.255. Этот формат, известный как IP версии 4, поддерживает до 4,3 миллиарда адресов. Растущее число устройств, подключенных к Интернету, способствует принятию IP версии 6 — формата, который будет поддерживать большее количество устройств (IP-адрес отображается в виде восьми групп из четырех шестнадцатеричных цифр, например.грамм. 2001: 0db8: 0000: 0000: 0000: 0000: 1428: 57ab), хотя он еще не получил широкой поддержки.
Когда человек подключает свой компьютер к Интернету, он каждый раз использует один и тот же IP-адрес, известный как статический IP-адрес; или каждый раз с другим номером, известным как динамический IP-адрес. Некоторые интернет-провайдеры выделяют динамические IP-адреса, другие — статические. Посетив сайт поиска IP-адресов, вы узнаете, какой IP-адрес вы используете в настоящее время. Вы можете определить, является ли он динамическим или статическим, если отключите подключение к Интернету, подключитесь повторно, а затем снова проверьте свой IP-адрес.
Что можно определить по IP-адресу?
Как только вы посетите веб-сайт, ваш IP-адрес станет доступен этому сайту. Обычно веб-сайты ведут учет всех посещенных IP-адресов с данными и временем посещения, даже если эта запись никогда не используется. Ваш интернет-провайдер также ведет учет вашей интернет-активности. Даже если ваш IP-адрес является динамическим, т. Е. Он меняется каждый раз, когда вы подключаетесь к Интернету, ваш интернет-провайдер сможет определить вашу активность в браузере, поскольку он знает, какой номер был назначен какому клиенту и когда.
В свободном доступе ограниченная информация о любом IP-адресе. Поскольку IP-адреса распределяются пакетами, ваш IP-адрес, будь то статический или динамический, будет находиться в определенном диапазоне, который обычно показывает ваш выбор поставщика услуг Интернета и ваше географическое положение — хотя в лучшем случае это будет определять город, а не улицу, и он не всегда определяет нужный город или даже нужную страну, в зависимости от вашего интернет-провайдера и его системы распределения IP-адресов.
При доступе к веб-сайту с офисного компьютера вы можете использовать один IP-адрес для множества коллег.Вполне вероятно, что ваш офис может определить, какой компьютер в его сети обращался к определенному сайту, даже если в записях доступа этого сайта указан общий IP-адрес.
Защита данных и IP-адреса
Закон о защите данных регулирует сбор и использование личных данных. Если данные не являются персональными данными, они не подпадают под действие Закона, но не всегда очевидно, являются ли данные персональными данными или нет. Изолированный IP-адрес не является личными данными, потому что он ориентирован на компьютер, а не на человека.Это рассуждение было применено комиссаром Гонконга по вопросам конфиденциальности в жалобе на раскрытие Yahoo! Информации о журналисте китайским властям (Гонконг очищает Yahoo! от нарушения конфиденциальности в отношении заключенного в тюрьму журналиста, OUT-LAW News, 15/03/2007 ). Комиссар написал в своем отчете: «IP-адрес сам по себе не соответствует определению« личные данные »».
В руках интернет-провайдера IP-адрес становится личными данными в сочетании с другой имеющейся информацией, которая будет включать имя и адрес клиента.В руках оператора веб-сайта они могут стать личными данными через профилирование пользователей.
Большинство сайтов не профилируют своих пользователей по IP-адресам. Обычно они используют IP-адреса для демографических целей, таких как подсчет посетителей, страны их происхождения и выбор интернет-провайдера. Их организация также может быть идентифицирована.
Сайты обычно собирают статистические данные о пути, который пользователи проходят через веб-сайт, и о странице, с которой они покинули сайт. Банковские веб-сайты также могут использовать IP-адреса в качестве меры безопасности — например, если клиент регулярно получает доступ к своей учетной записи с IP-адреса в Лондоне, доступ к учетной записи этого клиента с IP-адреса в Москве может указывать на мошенничество.
Наиболее распространенной проблемой конфиденциальности, связанной с IP-адресами, является их использование в маркетинге. Можно проследить путь посетителя через веб-сайт и идентифицировать любую рекламу, на которую он нажимает. При следующем посещении этому пользователю могут быть показаны объявления, похожие на те, которые он нажимал при предыдущем посещении. Но это не удается, когда у пользователя есть динамический IP-адрес: пользователь будет неизвестен.
Соответственно, большинство веб-сайтов предпочитают использовать файлы cookie для отслеживания пользователей в целях персонализированного маркетинга, а не IP-адреса.Файл cookie — это небольшой текстовый файл, который отправляется с веб-сайта на компьютер посетителя. Файл cookie может использоваться для идентификации человека, и оператор веб-сайта может создать подробный профиль активности этого человека на своем сайте. Пользователи могут настроить свои веб-браузеры на отказ от файлов cookie, но большинство пользователей принимают их, часто невольно.
Уполномоченный по IP-адресам
В 2001 году тогдашний комиссар по информации Элизабет Франс признала сложность использования IP-адресов для создания персонализированных профилей.«Трудно представить, как сбор динамических IP-адресов без другой идентифицирующей информации приведет к тому, что оператор веб-сайта попадет в сферу действия Закона о защите данных 1998 года», — написала она.
Она продолжила: «Статические IP-адреса отличаются. Как и файлы cookie, они могут быть связаны с конкретным компьютером, который может фактически или предположительно быть связан с отдельным пользователем. Если статические IP-адреса должны были сформировать основу для профилей, которые используются для доставлять целевые маркетинговые сообщения определенным лицам, они и их профили будут личными данными в соответствии с Законом о защите данных 1998 года.Однако оператору веб-сайта непросто отличить динамический IP-адрес от статического. Таким образом, возможности использования IP-адресов для персонализированного профилирования ограничены ». Этот подход теперь включен в руководство на веб-сайте Уполномоченного по информации под названием« Сбор личной информации с использованием веб-сайтов »(июнь 2007 г.).
Франция пришла к выводу: «Если динамические или статические IP-адреса собираются просто для анализа совокупных моделей использования веб-сайта, они не обязательно являются личными данными.Они станут личными данными только в том случае, если у оператора веб-сайта есть средства привязки IP-адресов к конкретному человеку, возможно, через другую имеющуюся информацию или из информации, которая общедоступна в Интернете. Интернет-провайдеры, конечно, смогут сделать эту ссылку, но информация, которую они хранят, обычно не будет доступна оператору веб-сайта «.
Аналогичное руководство было получено от независимого консультативного органа ЕС, называемого Рабочей группой по защите данных по статье 29. В ноябре 2000 г. он писал: «Однако во многих случаях существует возможность привязки IP-адреса пользователя к другим личным данным (которые являются общедоступными или нет), которые идентифицируют его / ее, особенно если используются невидимые средства обработки для собирать дополнительные данные о пользователе (например, с помощью файлов cookie, содержащих уникальный идентификатор) или современных систем интеллектуального анализа данных, связанных с большими базами данных, содержащими идентифицирующие личность данные о пользователях Интернета.«
Рабочая группа по статье 29 в настоящее время работает над отчетом о том, насколько политики конфиденциальности поисковых систем в Интернете, управляемые Google, Yahoo, Microsoft и другими, соответствуют закону ЕС о защите данных. В результате в Комиссии ЕС возникли дебаты о том, могут ли IP-адреса считаться персональными данными. Первоначально из отчетов казалось, что результат дискуссии показал, что в дальнейшем все IP-адреса следует рассматривать как персональные данные, а не только те, которые можно рассматривать с другой информацией для идентификации конкретного человека.
Однако Петер Шарр (Федеральный комиссар Германии по защите данных и председатель Рабочей группы по статье 29, чьи комментарии были предметом различных статей по дебатам) подтвердил, что его комментарии были неверно истолкованы прессой и, по сути, позиция в Великобритании в отношении IP-адресов остается в соответствии с указаниями Комиссара по информации выше (при условии, что суды придерживаются иной точки зрения). Однако он также заявил, что все IP-адреса должны рассматриваться компаниями, использующими их, как личные данные, поскольку в конечном итоге только суды могут решить с уверенностью, являются ли они личными данными, и поэтому компании должны проявлять осторожность.
Это отражает мнение 2007 года Рабочей группы по статье 29 о концепции персональных данных, комментируя ее более раннее мнение 2000 года. Рабочая группа отмечает, что там, где идентификация возможна, IP-адресом будут личные данные (примером исключения является компьютер в интернет-кафе, где у интернет-провайдера нет средств идентификации пользователя) и что в любом случае интернет-провайдеры найдут его трудно различить, где возможна идентификация, все IP-адреса следует рассматривать как личные данные «на всякий случай».
Как это влияет на ваши веб-операции
Если вы собираете IP-адреса и анализируете их коллективно — например, определение количества посетителей из Японии или самого популярного интернет-провайдера — вы должны указать это в своей политике конфиденциальности, например «Когда вы посещаете наш сайт, мы можем автоматически регистрировать ваш IP-адрес, уникальный идентификатор вашего компьютера или другого устройства доступа». Чтобы успокоить посетителей, вы можете добавить: «Мы не будем использовать ваш IP-адрес для вашей идентификации».
Если вы хотите использовать IP-адреса для идентификации или создания профиля каждого из ваших посетителей как отдельного человека, даже если они никогда не идентифицируются по имени, вы должны исходить из того, что применяется Закон о защите данных.Только суд может с уверенностью решить, является ли это обработкой персональных данных, к которой применяется Закон, и на сегодняшний день никаких судебных решений по этому поводу не было. Самый безопасный вариант — предположить, что Закон действительно применяется в этих обстоятельствах. На суд будут влиять указания Комиссара по информации по этому вопросу. Поэтому вам следует как можно раньше информировать посетителей о ваших намерениях использовать IP-адреса.
См .:
Обратите внимание: Руководство комиссара Великобритании появилось в наборе часто задаваемых вопросов на веб-сайте, опубликованном в 2001 году и больше не доступном на сайте комиссара.
Контакты
Как скрыть свой IP-адрес
Мы все люди, достойные любви, но мы также числа. Подумайте: когда вы родились, вам дали имя и номер социального страхования. Когда у вас есть машина, вы получаете номер водительского удостоверения. А когда вы выходите в Интернет, вы получаете IP-адрес. Большинство из нас стараются сохранить эти номера в секрете, чтобы защитить свою конфиденциальность, но ваш IP-адрес по умолчанию является публичным. Есть много способов скрыть или изменить это число, например, с помощью VPN, и это сделать намного проще, чем вы думаете.
Что такое IP-адрес?
Проще говоря, IP-адрес — это идентификатор, который позволяет передавать информацию между устройствами в сети. Как и ваш домашний адрес, он содержит информацию о местоположении и делает устройства доступными для связи.
Это не случайные адреса; они математически производятся и распределяются Управлением по присвоению номеров в Интернете (IANA), подразделением Интернет-корпорации по присвоению имен и номеров (ICANN). Это те же люди, которые отвечают за сортировку доменных имен и другие факторы, важные для интернет-общения.
Распределение этих адресов также не случайно. IANA не предоставляет вам IP-адрес напрямую. Вместо этого они распределяют блоки номеров по разным регионам. Например, в Соединенных Штатах выделено 1 541 605 760 адресов, что составляет около 36 процентов всех доступных IP-адресов (по крайней мере, для IPv4, в отличие от IPv6, но об этом в другой раз). Между тем, у Ватикана всего 17 920 адресов. Вероятно, это больше, чем вам когда-либо понадобится знать об IP-адресах, но теперь вы можете произвести впечатление на своих друзей этими удобными фактами о папских сетях.
Храните в секрете, берегите его
Поскольку существует ограниченное количество IP-адресов (4 294 967 296, под IPv4) и только определенное количество доступных по местоположению, простым смертным, таким как вы и я, обычно не нужно беспокоиться о наших IP-адресах. Наши интернет-провайдеры назначают их нам (а иногда отзывают и повторно используют), наши маршрутизаторы используют их, и мы с радостью продолжаем работу — пока нам не понадобится что-то менять.
Хотя очень немногие из нас на самом деле отвечают за свои собственные IP-адреса, есть несколько способов принудительно изменить их.Поищите в Интернете и вы найдете всевозможные загадочные волшебные слова командной строки, которые якобы дадут вам новый адрес. Есть даже некоторые веб-сайты, которые могут делать то же самое. Вы также можете отключить модем на некоторое время и посмотреть, назначит ли вам ваш провайдер новый адрес, когда вы вернетесь в сеть. Или вы можете напрямую позвонить своему интернет-провайдеру и попросить новый адрес, но это может привести к утомительным вопросам.
Вместо того, чтобы менять свой IP, вероятно, проще его просто скрыть.
Прячьтесь на виду, используйте VPN
Когда вы указываете в браузере веб-сайт, запрос покидает ваш компьютер, направляется на сервер, на котором находится веб-сайт, и возвращается с запрошенной вами информацией.Попутно происходит обмен информацией о местоположении и идентификационной информации, а иногда и перехватывается злоумышленниками, шпионами, рекламодателями и любопытными правительственными учреждениями.
С виртуальной частной сетью или VPN к уравнению добавляется еще один уровень. Вместо того, чтобы напрямую связываться с серверами веб-сайта, VPN создает зашифрованный туннель между вами и сервером службы VPN, который, в свою очередь, подключается к общедоступному Интернету и получает запрошенную вами информацию в обычном режиме. Он проходит обратно через туннель на ваш компьютер, гарантируя, что никто не сможет перехватить ваш веб-трафик и что наблюдатель увидит IP-адрес VPN, а не ваш.
Лучшие VPN-сервисы идут еще дальше, обеспечивая такие бонусы, как блокировка рекламы, защита от вредоносных программ и дополнительная защита для других устройств. Некоторые VPN, такие как TorGuard, даже предлагают статические IP-адреса для продажи. В отличие от адреса, назначенного вашим интернет-провайдером или полученного с помощью вашего VPN-соединения, это постоянный адрес, но обычно ограничен определенными странами.
Использование VPN добавляет дополнительный шаг к веб-серфингу, что обычно означает более медленную работу. Но мое обширное практическое тестирование показало, что провайдеры VPN высшего уровня лишь незначительно замедлят вас.Если у вас достаточно хорошее соединение, вы можете даже не заметить разницы. Действительно, самый быстрый VPN, который я тестировал, действительно улучшил скорость загрузки и скачивания.
И не забываем про мобильные устройства! У них тоже есть IP-адреса. И вы, вероятно, используете их в более разнообразных местах, чем ваш домашний компьютер, в том числе в изменчивых общедоступных точках доступа Wi-Fi. Хотя использование VPN на мобильном устройстве может немного раздражать, лучше хотя бы использовать его при подключении к сети, которой вы не полностью доверяете.У всех крупных VPN-компаний есть VPN-приложения для Android и iPhone.
В целом приложения VPN идентичны независимо от платформы. Однако есть несколько отличий от приложений VPN для iPhone. Apple несколько усложняет использование определенных протоколов VPN на устройствах iOS. К счастью, разработчики решают эту задачу и предоставляют лучшие и наиболее безопасные варианты для всех.
В то время как большинство рассмотренных мною VPN-сервисов имеют абонентскую плату, некоторые — нет.Доступно множество бесплатных VPN, хотя многие из них работают с ограничениями по данным и другим функциям.
Почему секретность?
Есть много причин скрыться в сети. IP-адреса могут использоваться для определения вашего физического местоположения, и иногда это можно сделать с поразительной точностью. Эти адреса также действуют как личные идентификаторы, что-то вроде номера телефона, позволяя рекламодателям и злоумышленникам отслеживать вас в Интернете. Их также можно использовать для проведения целенаправленных атак против вас.
Возможно, вы даже скрываетесь от бдительного или деспотичного правительства. Журналисты особенно склонны скрывать свои IP-адреса, когда пишут в опасных местах или на деликатные темы. Конечно, я никого не призываю нарушать местные законы, но я хочу, чтобы люди знали, как обезопасить себя, если возникнет такая необходимость.
Скрытие вашего IP-адреса через VPN также позволяет просматривать контент с привязкой к региону. BBC, например, предоставляет бесплатную потоковую передачу, если вы живете в Великобритании.Если вы хотите смотреть из другой страны, просто подключитесь к VPN-серверу в Лондоне, и ваш трафик будет выглядеть как британский. То же самое верно и для потоковых сервисов, таких как Netflix, которые предлагают разные предложения контента в зависимости от вашей страны. Из-за этого Netflix блокирует VPN, а VPNS пытаются продолжать работать, чтобы Netflix оставался доступным.
Шифрование вашего трафика с помощью VPN также затруднит вашему интернет-провайдеру блокировку определенных видов трафика. Например, пользователи BitTorrent могут захотеть использовать VPN, чтобы предотвратить блокировку своих загрузок.Большинство VPN-сервисов разрешают BitTorrent-трафик и обмен файлами в целом, но это не универсально. Убедитесь, что вы не нарушаете условия обслуживания VPN, когда начинаете собирать семена.
Tor и выше
Даже с помощью VPN ваши данные перемещаются более или менее по прямой линии между вашим компьютером и материалами в Интернете. Но когда вы делаете свой путь более окольным, вы не только скрываете свой IP-адрес, но и затрудняете поиск себя.
Tor, что является сокращением от лукового маршрутизатора, использует серию компьютеров, разбросанных по всему миру, чтобы скрыть ваш IP-адрес и затруднить отслеживание вашего цифрового следа.Вместо одного запроса из точки A (ваш дом) в точку B (сервер веб-сайта) и обратно ваш компьютер отправляет многоуровневые запросы, каждый из которых зашифрован индивидуально. Затем вы перенаправляетесь от узла Tor к узлу Tor (от A до C, от R до Z и, наконец, до B), прежде чем окончательно выйти из сети и достичь пункта назначения.
Даже если кто-то перехватит ваш трафик между узлами, уровни шифрования гарантируют, что они смогут различать только предыдущий и следующий переходы, и все равно не будут знать, где цепочка начинается или где она заканчивается.Теория состоит в том, что злоумышленник должен будет отобразить весь ваш путь через сеть Tor, чтобы выяснить, кто вы. Конечно, не все работает идеально в реальном мире, но Tor очень прозрачен в своих ограничениях и активно работает над улучшением сети.
Tor чаще всего ассоциируется с секретными и захудалыми веб-сайтами Dark Web, такими как Facebook. Но это также один из лучших инструментов анонимности, и он используется каждый день людьми, заботящимися о безопасности, и другими, стремящимися избежать ограничений жесткой государственной цензуры.Это тоже бесплатно.
Если Tor звучит неплохо, но вы не хотите возиться с реле и луковичными запросами, просто скачайте Tor Browser. Это специальная настроенная версия Firefox, которая упрощает доступ к Tor. Но хотя использование VPN может повлиять на скорость просмотра , использование Tor определенно замедлит скорость веб-серфинга.
Если браузер Tor вам не по душе, NordVPN (89 долларов за двухлетний план в NordVPN) также предлагает Tor через VPN для дополнительной защиты.Благодаря таким специализированным функциям легко понять, почему он стал победителем конкурса Editors ‘Choice.
Есть много причин, по которым вы можете захотеть скрыть свой IP-адрес. К счастью, есть много методов, приложений и сервисов, которые могут помочь вам в этом. Хотя некоторые из них могут показаться загадочными и пугающими, они быстро становятся более простыми в использовании и более мощными, в чем вы убедитесь, если изучите ссылки в этой истории.
868E-INT
% PDF-1.5 % 354 0 объект > / OCGs [392 0 R] >> / PageLabels 339 0 R / Pages 341 0 R / Тип / Каталог >> эндобдж 351 0 объект > поток %% DocumentProcessColors: голубой, пурпурный, желтый, черный %% EndCommentsAcrobat Distiller 8.Приложение 1.0 (Macintosh) / pdf
Обратные ссылки, ссылающиеся на домены и IP-адреса, руководство — Semrush Toolkits
Когда Google измеряет доверие к домену по его обратным ссылкам, поисковая система фактически принимает во внимание наличие большого количества ссылающихся доменов в качестве сигнала ранжирования. Это означает, что веб-сайт с пятьюдесятью обратными ссылками, поступающими с пятидесяти разных доменов, может считаться более надежным, чем веб-сайт с пятьюстами обратными ссылками, поступающими только с пяти доменов.
Итак, если вы хотите повысить свой SEO за счет построения ссылок, вам нужно будет собирать новые ссылки с как можно большего количества ссылающихся доменов и IP-адресов. В противном случае получение дополнительных ссылок с веб-сайта, который уже ссылается на вас, не повлияет на ваше SEO так сильно, как новая ссылка с нового веб-сайта.
С помощью этих двух отчетов вы сможете точно определить основные партнерские отношения вашего конкурента, которые приводят к обратным ссылкам, и найти аналогичные возможности для вашего веб-сайта, чтобы получить ссылки и повысить SEO.Ссылающиеся домены и IP-адреса вашего конкурента будут отличными отчетами для обнаружения блогов, медиа-сайтов, информационных порталов и географических регионов в вашей нише, которые отправляют ссылки на такие веб-сайты, как ваш.
В дополнение к этим отчетам вы можете воспользоваться инструментом Backlink Gap, чтобы найти ссылающиеся домены, которые отправляют обратные ссылки на несколько веб-сайтов, с которыми вы конкурируете.
Содержание:
Ссылающиеся домены
Ссылающиеся домены Расширенные фильтры
Ссылающиеся IP-адреса
Ссылающиеся домены
Отчет «Ссылающиеся домены» предоставит пользователям список всех доменов, которые связываются с запрашиваемым доменом.Вверху отчета будет таблица распределения и страны TLD, в которой показаны самые популярные TLD и географические зоны среди обратных ссылок домена.
Рядом с каждой зоной TLD указано общее количество доменов, которые связаны с запрашиваемым доменом с этим TLD. Если вы нажмете номер рядом с одним из TLD, Semrush добавит фильтр в отчет ссылающихся доменов и покажет вам список доменов с соответствующим TLD. Используйте фильтр .edu для поиска образовательных партнерств, а.фильтр gov для государственных партнерств и фильтр .org для веб-сайтов организаций. Обычно вы найдете информационные порталы и каталоги, которые частично относятся к большим базам данных и спискам веб-сайтов, использующих TLD .org.
Если вы нажмете ссылку «другой» в таблице распределения TLD, вы откроете отчет о распределении TLD (в интерфейсе которого нет вкладки), в котором будет показан полный список доменов TLD, от которых он получает обратные ссылки. Из этого отчета вы можете просмотреть другой отфильтрованный отчет с определенными исходными страницами.
Под этими двумя полями предварительного просмотра будет полный список доменов, которые Semrush обнаружил, ссылаясь на запрошенный домен. Домены будут перечислены в порядке убывания по количеству обратных ссылок, которые они отправили на запрашиваемый домен.
Таблицу можно отсортировать по общему количеству обратных ссылок и авторитету. Отсортируйте по количеству обратных ссылок, чтобы найти наиболее щедрое партнерство вашего конкурента, и отсортируйте по рейтингу авторитета, чтобы найти домены, которые содержат наиболее ценные ссылки, которые повлияют на SEO.
Вы также можете отсортировать эту таблицу по дате первого и последнего посещения, чтобы найти самых старых и последних партнеров по обратным ссылкам вашего конкурента.
IP-адрес и страна указаны в этой таблице, чтобы вы могли проанализировать популярность веб-сайта вашего конкурента по географическому региону. Принято считать, что наличие более разнообразного фона ссылок по сравнению с большим объемом, исходящим с одного и того же IP-адреса и региона, будет посылать более сильный сигнал доверия поисковым системам. Отчет «Ссылающиеся IP-адреса» будет содержать таблицу для лучшего анализа IP-адресов и географического распределения обратных ссылок.
Для каждого домена вы сможете увидеть корневой домен, а также связанную с ним категорию. Это отличный способ узнать, какие из ссылающихся доменов наиболее тесно связаны с вашей нишей.
Расширенные фильтры ссылающихся доменов
Расширенные фильтры в этом отчете позволяют фильтровать по IP-адресу, зоне (домен верхнего уровня), стране и новым и потерянным доменам.
Зона фильтры по сути являются фильтрами TLD, а фильтр Country найдет все ссылающиеся домены, расположенные в определенной стране, с их различными TLD.Фильтрация перед экспортом данных — отличный способ отточить определенный диапазон потенциальных обратных ссылок.
Например, фильтр зоны для «.au» может найти веб-сайты, использующие TLD .au, которые размещены в Соединенных Штатах, а фильтр страны для «Австралия» может найти веб-сайты в Австралии, размещенные на доменах верхнего уровня .com или .org.
Справа от раскрывающегося списка расширенных фильтров вы увидите фильтры новых , потерянных и категорий . Новые ссылки — это ссылки, которые появились в течение последних 30 дней, а потерянные ссылки были потеряны в течение последних 6 месяцев.
Если вы хотите проанализировать обратные ссылки из определенной отрасли, вы можете использовать этот фильтр категорий, чтобы сузить результаты.
Оценка авторитета
Оценка авторитета — это составная метрика, используемая для оценки общего качества домена и его влияния на SEO. Возможность фильтровать обратные ссылки конкурентов по рейтингу авторитета (AS) позволит вам увидеть, какие домены отправляют высококачественные ссылки вашим конкурентам.
Эта оценка основана на ряде различных показателей и оценивает качество веб-сайта, поэтому чем выше оценка авторитета, тем выше качество домена.Фильтр AS позволяет вам выбирать из набора из 10 различных диапазонов, а также создавать собственный диапазон.
Рядом с каждым заданным диапазоном вы можете увидеть количество доменов, связанных с каждым из них.
Ссылающиеся IP-адреса
Отчет «Ссылающиеся IP-адреса» покажет вам каждый IP-адрес обратных ссылок на веб-сайт. С помощью этой информации вы сможете узнать, сколько обратных ссылок поступает с одного IP-адреса, а сколько — из разных стран. Широкое распространение обратных ссылок полезно для SEO, и с помощью этого отчета вы можете проанализировать, из каких стран ваш сайт получает больше всего ссылок и где он наиболее популярен.
В верхней части отчета вы увидите таблицу для распределения и страны TLD, как и отчет по ссылающимся доменам. Ниже этих диаграмм будет полный список IP-адресов, с которых отправляются обратные ссылки.
IP-адреса в таблице отсортированы по количеству доменов на каждом IP-адресе (один IP-адрес может содержать множество веб-сайтов, если все они размещены на одном сервере), а также могут быть отсортированы по количеству обратных ссылок на сайт или по первому и дата последнего посещения IP.
Щелкнув число в столбце Домены , вы перейдете к отфильтрованному отчету Ссылающиеся домены , а щелкнув число в столбце Обратных ссылок , вы перейдете к отфильтрованному отчету Обратных ссылок . Эти отчеты предоставят вам полный список ссылающихся доменов или обратных ссылок, поступающих с указанного IP-адреса. Оттуда вы можете экспортировать список, чтобы сохранить свое исследование.
Одна из причин для изучения IP-адресов, ссылающихся на домен, — это поиск признаков черной тактики SEO.Если вы видите, что один IP-адрес отправляет чрезвычайно большое количество обратных ссылок из нескольких доменов, это может быть признаком частной сети блогов, сети ссылок или других сфабрикованных схем ссылок.
Этот отчет можно экспортировать в Excel, CSV или CSV с точкой с запятой, если вы хотите отфильтровать эти данные самостоятельно.
Руководство по перенаправлению на основе географического местоположения и поисковой оптимизации
В Geo Targetly одна из наших основных услуг — предлагать клиентам перенаправление на основе географического местоположения. В большинстве случаев наши клиенты всегда задают вопрос: «Как географическая переадресация повлияет на мое геолокационное SEO?»
Сейчас приближается 2019 год, и большинство статей в Интернете по этой теме устарели.Google развивается, Google становится умнее, Google любит персонализацию, потому что гео-персонализация является ключевым фактором повышения коэффициента конверсии и удобства пользователей.
В этой статье мы подробно обсудим, как Google обрабатывает перенаправление на основе географического местоположения, и рекомендации, которым вы можете следовать, чтобы обеспечить минимальное влияние на ваш SEO. Почему глобальные и транснациональные компании выполняют перенаправление на основе географии?
Автоматическое географическое перенаправление в зависимости от страны, штата или города посетителя может дать большое преимущество глобальным или многонациональным компаниям.Это в первую очередь потому, что это создает улучшенный опыт просмотра, поскольку посетители мгновенно попадают на страницы, которые показывают контент, соответствующий их местоположению. Это имеет смысл, я имею в виду, почему никто не хочет видеть цены на продукты или доступные продукты в их стране?
Есть две части увеличения продаж: 1) Увеличение количества посетителей вашего веб-сайта и 2) Увеличение коэффициента конверсии существующих посетителей. В последнее время большое внимание уделяется части 2), увеличивающей коэффициент конверсии.Это в первую очередь потому, что этот метод практически бесплатный, поскольку он использует существующие ресурсы на вашем сайте. Зачем тратить десятки тысяч долларов на привлечение трафика на ваш сайт при низком коэффициенте конверсии?
К настоящему времени вы, должно быть, видели множество крупных компаний и глобальных организаций, включая сам Google, которые используют перенаправление на основе географии для перенаправления посетителей на локальные страницы. Например, если вы наберете «google.com» в своем браузере из Великобритании, он автоматически перенаправит вас на «google.co.uk».Это простейший пример перенаправления на основе географии самим Google.
СОДЕРЖАНИЕ
Как работает перенаправление на основе географии?
Перенаправление на основе географического IP-адреса — это процесс автоматического перенаправления посетителя веб-сайта по его геолокации (страна, штат или город). Он работает, определяя местоположение посетителя по его IP-адресу, сопоставляя его с базой данных IP-адресов и местоположений.
Кто еще выполняет перенаправление на основе географии?
Практически каждая глобальная компания:
- — Airbnb.com перенаправляет на сайт конкретной страны: Airbnb.co.uk
- — Uber.com перенаправляет на подстраницу конкретной страны: uber.com/en-GB
- — Hotels.com перенаправляет на субдомен страны: uk.hotels.com
- — Список продолжается …
Взгляд Google на перенаправление и геолокацию на основе геолокации SEO
Вот видео от Мэтта Каттса (бывший глава отдела веб-спама в Google), который утверждает, что перенаправление на основе геолокации является это общепринятая практика и не является спамом. Ключевой момент, который следует отметить в видео, — это то, как он упомянул, чтобы вы обращались со сканерами Google так же, как с посетителем.т.е. не отключайте гео-перенаправление для роботов Google. Пока вы относитесь к Google так же, как к посетителям, с вами все будет в полном порядке.
Google с учетом локали — географически распределенное сканирование
Эта ссылка со страниц поддержки Google рассказывает о том, как Google использует сканирование с учетом местоположения.
Google упоминает, что они будут сканировать ваш веб-сайт с IP-адресов, находящихся за пределами США, в дополнение к IP-адресам в США. Они снова подчеркивают критический момент: «относитесь к ботам Google так, как вы относитесь к любому другому пользователю из этой страны».Так что еще раз не пытайтесь помешать роботу Google распознавать ваше перенаправление на основе географии.
Они также упоминают, что протокол исключения роботов согласован для каждой локали. Это означает, что метатеги robots и файл robots.txt должны указывать одни и те же директивы для каждой локали.
Руководство Googles №1: относитесь к ботам Google так же, как и к посетителям
Независимо от того, сколько вы читаете о SEO из различных источников и от самого Google, ключевое утверждение номер один, которое подчеркивает Google: вы бы относились к своим посетителям ».
Google может понести наши серьезные штрафы за показ различного контента своим ботам и посетителям. Это также известно как «маскировка» и может иметь серьезные негативные последствия для вашего SEO.
Следовательно, это утверждение должно стать вашим приоритетом номер один при реализации перенаправления на основе географического местоположения для вашего веб-сайта.
Вы можете узнать больше о взглядах Google на маскировку здесь и посмотреть видео ниже:
Помогите Google понять перенаправление веб-сайтов на основе вашего местоположения, используя правильные методы SEO
Google упоминает, что они специально не отправляют сканеров из разных стран, чтобы увидеть, как будет выглядеть ваш сайт.Следовательно, очень важно убедиться, что вы делаете все возможное, чтобы сообщить Google, что вы являетесь глобальной или многонациональной компанией и что у вас есть веб-сайты или страницы, ориентированные на определенные местоположения.
Рекомендуемые сигналы, которые использует Google, приведены ниже и могут быть найдены здесь
- Таргетинг на локаль поисковой консоли Google
- Домены верхнего уровня с кодом страны или URL-адреса для конкретного местоположения
- Теги Hreflang
- Местоположение сервера (не окончательно)
- Локальное содержание ( наличие адресов, номеров телефонов, названий стран, валюты)
- Листинг в Google My Business или других каталогах, привязанных к местоположению
- Обратные ссылки со страниц с указанием местоположения
Таргетинг на локаль поисковой консоли Google
в качестве инструментов для веб-мастеров вы заметите опцию, которая позволяет вам выбрать целевую страну для вашего веб-сайта.Воспользуйтесь этой опцией, поскольку она сообщает Google, где находится ваша основная аудитория.
Если вы используете несколько доменов на уровне страны, таких как example.com, example.co.uk и example.com.au, то очень важно убедиться, что каждый из этих доменов указан как объект в консоли поиска Google, и каждый из них является целевым. в соответствующую страну.
Использование URL-адресов с привязкой к местоположению / страниц, нацеленных на каждое местоположение
Ключевая рекомендация Google — использовать отдельные страницы, которые содержат контент с привязкой к местоположению и имеют URL-адреса с привязкой к местоположению, а не одну страницу, пытающуюся динамически отображать контент на основе местоположения.
Причина в том, что это дает Google наилучшую возможность сканировать и понимать каждую из этих страниц и индивидуально перечислять их в результатах локального поиска.
Несколько сайтов с доменами на уровне страны
Если вы ориентируетесь на разные страны, всегда рекомендуется использовать региональные домены верхнего уровня (например, example.co.uk, example.com.au, например .ca). Это самый ясный способ сообщить Google, что ваш веб-сайт ориентирован на определенную страну.Если вы выполняете поиск из определенной страны, в результатах поиска почти наверняка будет отдано предпочтение веб-сайтам, имеющим домен верхнего уровня для конкретной страны. Затем вы можете использовать перенаправление на основе географического IP-адреса для автоматического перенаправления посетителей и поисковых роботов Google на эти домены на уровне страны.
Google понимает, что каждый из ваших доменов ориентирован на определенную страну, и вы отправляете посетителей в домен правильной страны в зависимости от их местоположения. Если поисковые роботы Google из Великобритании попадут на ваш пример.com и перенаправляется на example.co.uk, для Google совершенно логично, что посетитель из Великобритании будет отправлен на веб-сайт из Великобритании.
Несколько сайтов с субдоменами страны
Однако мы понимаем, что покупка нескольких доменов на уровне страны может быть трудной для выполнения и управления, особенно когда они недоступны. Использование субдоменов, таких как uk.example.com и au.example.com, — еще один способ выполнить разделение по странам.
Поддиректории на одном веб-сайте
Многие компании предпочитают идти по этому пути, поскольку легче управлять одним веб-сайтом с несколькими страницами, привязанными к конкретному местоположению.Еще одна причина использования этого метода — «удерживать» всю ценность SEO геолокации в одном домене, а не распределять ее по нескольким доменам или субдоменам.
Важно настроить подкаталоги так, чтобы название страны отображалось сразу после домена, например example.com/uk или example.com/au. Это позволяет «разделить» ваши страницы в структуре URL, что позволяет вводить подмножество страниц для конкретной страны в качестве объекта в поисковой консоли Google и, таким образом, применять его с опцией таргетинга на страну.
Обработка дублированного контента Проблемы SEO с несколькими URL-адресами с использованием канонического элемента
Одна из ключевых проблем — «отлично, я могу легко создать несколько страниц, но как насчет дублированного контента». Очевидно, вы получите лучший результат, если сможете создать уникальный контент для каждого URL-адреса, привязанного к местоположению. Это возможно, если у вас есть только несколько URL-адресов для конкретного местоположения, но что произойдет, если у вас будет намного больше?
Решение состоит в том, чтобы использовать элемент rel-canoical, чтобы сообщить Google предпочтительный URL для конкретного местоположения.Например, у вас может быть example.com/product, example.com/ca/product, example.com/uk/product, вы должны указать каноциальную ссылку как example.com/product. Это сообщит Google, что example.com/product — это исходная версия, а остальные — всего лишь варианты.
Вы можете прочитать о каноническом элементе и о том, как его правильно использовать, на страницах поддержки Google здесь.
Использование локального контента в каждом URL-адресе для конкретного местоположения
Google ранжирует страницы на основе контента на странице.Это фундаментально. Следовательно, наличие контента для конкретного местоположения, такого как названия стран, номера телефонов, адреса, ключевые слова для местоположения, языки, — все это поможет Google понять, на какое место нацелена ваша страница.
Объявление в Google My Business
Google предоставляет списки компаний, и этот вариант может быть подходящим для определенных физических предприятий. Если вы можете воспользоваться этим, создайте бизнес-страницу Google для каждого из своих местоположений. Это просто еще один способ сообщить Google, на что ориентирован ваш веб-сайт, связанный с этой компанией.
Теги Hreflang
Язык может быть очень хорошим индикатором того, на какую страну нацелен страница. Если ваш веб-сайт поддерживает разные языки, используйте теги hreflang в соответствии с рекомендациями Google, чтобы сообщить Google о каждом варианте вашей страницы.
Вы можете узнать больше о тегах hreflang и о том, как их правильно использовать, на страницах поддержки Google здесь.
Географическое перенаправление на основе штата и города и SEO
Большая часть того, что мы обсуждали, касалась географического перенаправления на основе страны.Однако удивительное количество компаний также используют географическое перенаправление на уровне штата или города. Это применимо к веб-сайтам на основе каталогов, таким как списки недвижимости, купоны / сделки и даже франчайзинговые компании, которые работают в нескольких местах в стране.
При использовании географического перенаправления внутри страны следует соблюдать осторожность, поскольку Google ничего не упоминает о сканировании на уровне штата или города. Почти все их рекомендации ориентированы на перенаправление на основе страны.
Google также не сообщает их точный штат или город для своих поисковых роботов в каждой стране, поэтому невозможно узнать, откуда именно в стране приходит поисковый робот. Если вы выполняете перенаправление на основе штата или города, мы всегда советуем убедиться, что у вас есть URL-адреса страниц для каждого из этих местоположений. Это позволит Google сканировать каждый из этих URL-адресов, понимать содержание и отображать эти результаты в местных поисковых системах.
Например, если сантехнический бизнес находится в нескольких штатах, очень важно иметь страницу, относящуюся к каждому из этих состояний.Если в URL-адресе указано название штата или города, Google сможет лучше понять, на что ориентирована эта страница. Google умен на уровне штата и города. Если вы внимательно посмотрите на страницы поиска Google, они нацелены на ваше местоположение вплоть до уровня города и всегда пытаются показать компании, расположенные ближе всего к вам.
Мы также рекомендуем не перенаправлять главную страницу вашего сайта на государственную базовую страницу.
Вместо этого перенаправляйте только другие страницы, такие как «О нас», «Свяжитесь с нами» или страницы продуктов.Это исключает возможность того, что ваша главная страница будет распознана как страница, принадлежащая определенному штату или городу. Желательно, чтобы главная страница была как можно более общей и содержала ключевые слова для всех обслуживаемых вами местоположений.
Все еще не убеждены и не хотите рисковать своим геолокационным SEO?
Не беспокойтесь, есть альтернативы, если автоматическое перенаправление на основе географии вам не подходит.