Алгоритм — это, поисковые алгоритмы (ПС)
Оглавление
- Алгоритмы Google
- Алгоритмы Яндекса
- Характеристика
Алгоритмы ПС (поисковые системы) — математические формулы, которые определяют позиции сайтов в результатах выдачи.
На основании ключевых слов поисковые машины определяют сайты наиболее релевантные введенному поисковому запросу. Согласно алгоритму, поисковик анализирует содержимое сайта, находит ключевую фразу из запроса пользователя и делает вывод о том, какую позицию сайту присудить.
Алгоритмы Google
Впервые об алгоритмах заговорили, когда Google обзавелся своим собственным поисковым механизмом (Индекс Цитирования). ИЦ был разработан для присвоения позиций страницам сайтов в зависимости от количества и качества внешних ссылок. Таким образом, появился некий стандарт определения релевантности интернет-ресурсов в результатах поиска. Такая технология принесла успех, что обеспечило Google высокую популярность.
Первоначально главным фактором, который Google учитывал при ранжировании сайтов, считался PR, однако не обделял он вниманием и внутреннее наполнение страниц интернет-ресурсов; вскоре в этот список факторов добавились региональность и актуальность данных.
В 2000г. для наилучшего вычисления PR Кришна Бхарат предложил алгоритм Hilltop. Со следующего года Google начал определять коммерческие и некоммерческие страницы, поэтому алгоритм изменили. В 2001г. был добавлен фактор, наделяющий ссылки с трастовых сайтов большим весом.
В 2003г. был разработан алгоритм «Флорида», который вызвал шквал негодования со стороны оптимизаторов. Он игнорировал популярные в то время методы продвижения и сайты с огромным количеством ключевых слов на страницах и с повторяющимися анкорами.
С 2006г. на вооружение был взят алгоритм израильского студента Ори Алона, «Орион», который учитывал качество индексируемых страниц.
В 2007г. был разработан алгоритм «Austin», сильно видоизменивший поисковую выдачу.
В 2009г. появился алгоритм «Caffeine», благодаря которому улучшился поиск Google, а проиндексированных страниц стало больше.
В 2011г. был выпущен новый алгоритм, «Panda», который дает более высокие позиции интернет-ресурсам с качественными текстовыми материалами на страницах.
Алгоритмы Яндекса
Летом в июле 2007г. Яндекс официально заявил о том, что механизмы ранжирования подвержены изменениям. Первым алгоритмом, о котором в 2008г. Яндекс упомянул в одном из своих интервью, был 8SP1, до этого алгоритмам не присваивали никаких имен, а внесенные в алгоритмы изменения оптимизаторы могли определить только методом проб и ошибок.
16 мая 2008г. появился новый алгоритм «Магадан», который располагал таким возможностями, как переработка транслитераций и аббревиатур.
В этом же году был разработан алгоритм «Находка», с его релизом в выдаче стали появляться информационные сайты, как например, Википедия.
Алгоритм «Арзамас», или «Анадырь»(10 апреля 2009г.), положительно повлиял только на региональное продвижение, также были разработаны фильтры для сайтов со всплывающими баннерами (попандеры и кликандеры).
В этом же году в ноябре Яндекс представил алгоритм «Снежинск», в котором ввел в обращение метод машинного обучения, «Матрикснет». Поскольку были введены новые параметры ранжирования, технология продвижения усложнилась: пришлось оптимизировать сайты комплексно.
Официальный релиз «Конаково» состоялся в декабре 2009г. , по сути, это была обновленная версия «Снежинска». Благодаря «Конаково» сайты стали ранжироваться по 19 регионам и по 1250 городам России.
В сентябре 2010г. вышел «Обнинск», который комплексно оценивал текстовое содержание сайтов и лучше определял авторство текстовых материалов. Большое количество ключевых слов расценивалось как спам и наказывалось фильтрами. Искусственные ссылки перестали оказывать сильное воздействие на ранжирование сайтов. Продукты копирайтинга стали пользоваться большим спросом.
Декабрь 2010 г. был ознаменован появлением алгоритма «Краснодар», для которого была внедрена специальная технология «Спектр». Яндекс повысил качество поисковой выдачи, научившись разделять запросы на объекты (например, имена, модели) и систематизировать их (техника, лекарства и т.д.). Оптимизаторы стали принимать к сведению поведенческие факторы.
Релиз алгоритма «Рейкьявик» состоятся 17 августа 2011г., он был направлен на улучшение поиска при работе с англоязычными запросами.
Характеристика
Раньше поисковые системы находили всю необходимую информацию, обработав некоторые показатели сайтов, например, заголовки, количество контента, ключевики. Но стремительно развивающаяся оптимизация и появление огромного количества спамных сайтов препятствовали такой работе и вынуждали поисковые системы совершенствовать свои алгоритмы, чтобы игнорировать «плохие», по их мнению, сайты. Таким образом, обновление алгоритмов — это реакция на появление новых методов продвижения.
Поисковые алгоритмы системы Google – более 200 факторов ранжирования в Labrika
Апрель 28, 2020
Google Основы SEO Алгоритмы
Алгоритм поисковой системы — это формула, по которой она находит и ранжирует релевантные ответы на конкретный запрос пользователя.
Работа поискового алгоритма основана на анализе множества факторов, показывающих ценность веб-ресурсов и их содержимого для пользователей.
Развитие факторов ранжирования Google
Первоначально главным фактором ранжирования сайтов в Google была релевантность контента страницы запросу пользователя, которая определялась по вхождениям слов из этого запроса в мета-теги и тексты, Кроме того, позиция страницы в результатах поиска зависела от количества ведущих на неё ссылок.
Сегодня для ранжирования документов в Google используется искусственный интеллект, подбирающий подходящий по смыслу документ даже при отсутствии в его заголовке ключевых слов из запроса.
Поисковая выдача стала персонализированной и зависит теперь не только от качества, релевантности и авторитетности сайта и возраста домена, но и от местонахождения пользователя и его персональных интересов, а также от комплекса поведенческих факторов. Если, например, при переходе на страницу веб-ресурса посетители сразу же покидают его, то поисковая система расценивает такой сайт как неинтересный для интернет-сообщества и понижает его позиции в результатах поиска.
Появление огромного количества сайтов, в том числе спамных, использующих нечестные методы продвижения, вынуждало поисковые системы совершенствовать свои алгоритмы. Сейчас поисковый алгоритм Google включает примерно 200 факторов, которые влияют на ранжирование и продолжает регулярно обновляться.
Однако многие из этих изменений и связанные с ними факторы компания держит в секрете, чтобы избежать их использования для манипуляции результатами поиска. Публично объявляется только о наиболее значимых обновлениях алгоритма.
Хронология и особенности основных алгоритмов и обновлений Google
Бостон — Февраль 2003
https://moz.com/google-algorithm-change
Первое официально объявленное изменение алгоритма Google. Обновления становятся ежемесячными. Изменения алгоритма в них сочетались с обновлениями индекса (так называемый «Google Dance»).
Кассандра — Апрель 2003
https://moz.com/google-algorithm-change
Фильтруются сайты со скрытыми ссылками и текстами, со ссылками с сайтов-дорвеев, принадлежащих одному владельцу.
Фриц — Июль 2003
Explaining algorithm updates and data refreshes
Обновление поисковой выдачи стало происходить не ежемесячно, а почти каждый день. В результате изменения стали не такими резкими.
Дополнительный индекс («Supplemental Index») — Сентябрь 2003
https://www.
searchenginewatch.com/2003/09/02/search-engine-size-wars-googles-supplemental-results/
Страницы, которые Google считал малоинформативными или дублирующими, заносились в дополнительный индекс. Позже от Supplemental Index отказались – он был интегрирован в основную базу.
Флорида — Январь 2003
What Happened To My Site On Google?
Из выдачи отфильтрованы некачественные сайты, перенасыщенные ключевыми словами, неуникальным контентом, покупными внешними ссылками. Считается, что это обновление положило начало профессиональному SEO.
Бренди — Февраль 2004
https://www.sitepoint.com/brandy-google-update/
Обновление включало масштабное расширение индекса, скрытое семантическое индексирование (LSI), учет релевантности анкорного текста и тематическую близость сайтов-доноров и акцепторов ссылок.
Атрибут Nofollow — Январь 2005
https://www.searchenginewatch.
com/2005/01/18/google-yahoo-msn-unite-on-support-for-nofollow-attribute-for-links/
Введение атрибута «nofollow» для закрытия от индексации спамных ссылок.
Персонализация поиска — Июнь 2005
https://googleblog.blogspot.com/2005/06/search-gets-personal.html
Персонализация поисковой выдачи на основе истории запросов пользователя.
Универсальный поиск — Май 2007
Google Launches “Universal Search” & Blended Results
Google добавляет в поисковую выдачу результаты из блоков новостей, видео, изображений, локального и других видов специализированного поиска.
Google Suggest (Поисковые подсказки) — Август 2008
Google.com Finally Gets Google Suggest Feature
При вводе запроса в поисковую строку появляется список аналогичных фраз, использованных в поиске ранее.
Кофеин — Июнь 2010
https://googleblog.blogspot.
com/2010/06/our-new-search-index-caffeine.html
Новая система веб-индексации – не по слоям, а параллельно — по мере нахождения новых страниц или обновления информации на старых. Теперь свежие данные появляются в индексе гораздо быстрее.
Панда (Фермер) — Февраль 2011
https://www.wired.com/2011/03/the-panda-that-hates-farms/
Пессимизация «ферм» контента, сайтов с неуникальным, бесполезным, некачественным содержимым Алгоритм несколько раз обновлялся, в 2016 г. включен в основную формулу ранжирования. Подробнее см. статью об алгоритме «Панда» в блоге «Лабрики».
Top heavy (Макет страницы) — Январь 2012
https://search.googleblog.com/2012/01/page-layout-algorithm-improvement.html
Алгоритм понижает позиции ресурсов, на которых реклама занимает значительную часть страницы и затрудняет доступ к основному контенту.
Венеция — Февраль 2012
https://moz.com/blog/understand-and-rock-the-google-venice-update
Учет местоположения пользователя — в разных регионах предоставляются различные результаты поиска по геозависимым запросам.
Пингвин — Апрель 2012
Google Launches “Penguin Update” Targeting Webspam In Search Results
Пессимизация сайтов, использующих технологии веб-спама для манипуляции результатами поиска (массовая закупка ссылок, неестественные анкоры, переспам страниц ключевыми фразами и т. п.). После нескольких обновлений «Пингвин» стал частью основного поискового алгоритма Google. Подробнее об алгоритме «Пингвин» — см. в статье нашего блога.
Граф знаний (Knowledge Graph) — Май 2012
https://search.googleblog.com/2012/05/introducing-knowledge-graph-things-not.html
Семантическая технология и база знаний, используемая для повышения качества поисковой выдачи. Граф знаний предоставляет структурированную и подробную информацию по теме запроса, которая дополняет список сайтов в результатах поиска. Теперь пользователи могут получать ответы на вопросы прямо на странице выдачи, не переходя на другие сайты.
Пират (DMCA Penalty) — Август 2012
https://searchengineland.
Понижение позиций сайтов, нарушающих авторские права. В октября 2014 г. Вышло обновление алгоритма — Pirate 2.0.
Обновление EMD (Exact Match Domain) — Сентябрь 2012
The EMD Update: Google Issues “Weather Report” Of Crack Down On Low Quality Exact Match Domains
Обновление алгоритма, которое понижает рейтинг некачественных доменов с точным вхождением поискового запроса.
Колибри (Hummingbird) — Август 2013
FAQ: All About The New Google “Hummingbird” Algorithm
Новый алгоритм позволил находить страницы по сложным многословным и «разговорным» запросам. Для этого использовалось понимание смысла и исследование конструкции запроса, определение местоположения пользователя и др.
Голубь (Pigeon) — Август 2014
Google “Pigeon” Updates Local Search Algorithm With Stronger Ties To Web Search Signal
Корректировка локального поиска — по геозависимым запросам выше ранжируются ближайшие к пользователю результаты.
Mobile-Friendly — Апрель 2015
https://webmasters.googleblog.com/2015/02/finding-more-mobile-friendly-search.html
Приоритет в мобильном поиске получают сайты, которые имеют версию, адаптированную для мобильных устройств.
RankBrain — Октябрь 2015
FAQ: All about the Google RankBrain algorithm
Применение технологии машинного обучения для определения тематики запроса. RankBrain позволяет находить релевантные ответы по смыслу, даже без буквального совпадения ключевых слов в запросе и в документе.
Обновление Cкорости (Speed Update) — Июль 2018
https://webmasters.googleblog.com/2018/01/using-page-speed-in-mobile-search.html
Скорость загрузки веб-страницы становится фактором ранжирования для мобильного поиска.
«Медицинское» обновление (Medic Update) — Август 2018
https://www.seroundtable.com/google-medic-update-26177.
html
Улучшение поиска по сайтам YMYL (your money or your life), т. е. касающихся вопросов здоровья, финансов или безопасности.
Алгоритм BERT (Bidirectional Encoder Representations from Transformers) — Октябрь 2019
https://blog.google/products/search/search-language-understanding-bert
Улучшение обработки запросов на естественном языке при помощи нейросетей. Теперь при определении смысла запроса учитывается контекст всего предложения, включая предлоги.
Подробнее об алгоритме BERT вы можете прочитать в статье нашего блога-руководства для SEO специалистов. Page Experience — 2021 Новый алгоритм дает оценку удобства использования и безопасности сайта для посетителей. Таким образом, пользовательский опыт и поведенческие факторы как никогда оказывают влияние на продвижение сайтов в данный момент.
7 советов, как писать и оформлять тексты с учетом SEO-оптимизации
Как преподнести написанную статью, чтобы пользователи прочитали ее до конца? Почему важно уделить особое внимание построению текста? Какие должны быть подзаголовки, ссылки и списки? Корреспондент Теплицы изучил вопрос и узнал у экспертов, что изменилось в подходе к текстовой оптимизации и как эффективнее всего оформить материал.
SEO-тексты – это такие статьи, которые обеспечивают сайту хорошую seo-оптимизацию, то есть продвижение в поисковых системах. Чтобы создать такой текст, нужно качественно его оформить. Ваш текст должен выглядеть простым и понятным для пользователя.
О тенденциях
По мнению руководителя SEO-направления агентства
1. Ужесточение и усовершенствование антиспам фильтров. По словам Олега Белова, Google использует алгоритм Panda, смысл которого в оценке качества контента. В марте 2017 года Яндекс запустил алгоритм «Баден-Баден». «Из анонсированных особенностей алгоритма наиболее важным видится угроза пессимизации всего сайта (понижение позиции сайта в выдаче поисковой системы. – Прим. ред.) за некачественный контент, а не отдельно взятых страниц или поисковых фраз», – отметил эксперт.
2. Усложнение подхода в оценке текстовой релевантности. Поисковые системы все больше руководствуются семантическим поиском. Пример тому алгоритмы «Палех» у Яндекса и RankBrain у Google.
«Общий смысл этих технологий – понять именно смысловое значение поисковой фразы (что пользователи подразумевают), а не просто поиск документов по наличию в них определенных слов». Олег Белов
3. Усложнение модели ранжирования. «Грубо говоря, если в ранжирующей формуле используется 100 факторов, то значение каждого фактора сильнее, чем в случае, когда этих факторов около 1000», – объяснил суть принципа Белов.
Еще по теме: Что такое поисковая оптимизация: структура и задачи SEO
4. Усиление хостовых факторов. Поисковики все больше учитывают качество сайта целиком, а не конкретные страницы. По словам Олега Белова, на крупных площадках, которые всесторонне прорабатывают семантику, стараются максимально охватить тематику или ассортимент, поисковый трафик больше. «Если речь идет об интернет-магазинах, – уточнил эксперт. – Хороший пример – засилье товарных агрегаторов в e-commerce (электронной коммерции)».
Для настройки текстовой оптимизации есть несколько общих принципов, которых стоит придерживаться.
7 правил оформления текстов
1. Разбивка на абзацы. Не пытайтесь заключить весь смысл вашей статьи в два-три абзаца. Разбивайте и структурируйте мысли. В идеале в одном абзаце должно быть от трех до семи строк. Такое построение текста не спугнет читателя.
2. Подзаголовки. В самом начале текста идет заголовок h2, а дальше подзаголовки уровня h3 и по необходимости h4, их в тексте может быть несколько. Открывая статью, читатель может просмотреть подзаголовки, оценить пользу статьи, а уже потом приступить к чтению. Именно подзаголовки упорядочивают повествование и помогают читателю ориентироваться в тексте. Другими словами, подзаголовки – это тезисное изложение сути вашего текста. Они удобны для распознавания поисковиками и для пользователей.
3. Поисковые фразы. Для продвижения вы должны выбрать ключевые слова. По мнению Олега Белова, важно, чтобы на одну страницу приходились запросы из одного кластера (совместимые по смыслу между собой). Эти запросы должны присутствовать в мета-тегах, а также в контенте страниц. C их употреблением не нужно перебарщивать. Например, использовать только три или четыре основных запроса на статью.
«Не стоит употреблять поисковые фразы в большом количестве, злоупотреблять форматированием и вставлять их во все заголовки второго и третьего уровня – все это осталось в далеком прошлом». Олег Белов
Список слов и фраз можно составить с помощью сервисов Google.Adwords и Яндекс.Вордстат. Предлагаем посмотреть видеоурок Теплицы о том, как проверить тематику будущей статьи с помощью подбора слов.
4. Ссылки. Если вы уже писали о какой-то теме ранее, не стоит пересказывать ее суть. Просто прикрепите гиперссылку и напишите, что читателю будет полезно увидеть еще один материал по теме. Такой инструмент оптимизации называется перелинковка. Переходя на другую страницу сайта, пользователь проводит на нем больше времени. А этот поведенческий фактор поисковики расценивают положительно при ранжировании материалов.
5. Списки. Один из отличных способов выстроить статью и передать важную мысль – использовать списки. Такой элемент разнообразит подачу материала, не сделает вашу статью монотонной.
6. Объем статьи. Олег Белов уверен, что дать общие рекомендации по количеству используемых слов в тексте невозможно. Такую задачу решают текстовые анализаторы, например, приложения MegaIndex или Just Magic. Цифры, полученные в ходе анализа, можно использовать для ориентира.
«Стоит не только обращать внимание на цифры, но всегда думать о качестве текста, о том, чем он будет полезен и интересен, о его добавочной ценности и о разнообразии типов контента, то есть не только текст».
Олег Белов
7. Фото- и видеоконтент. Поисковики оценивают, какой тип контента есть в вашей статье, кроме текста. Внимательно подберайте главную иллюстрацию для статьи, которая будет дополнять материал. В целом изображение должно быть большим, но при этом не тяжелым, до 60 кб. Лучше использовать изображения с лицензией Creative Commons (то есть бесплатные), скриншоты или свои собственные фотоснимки. Заполните теги Title, Alt и подпись к картинке.
К размещению видеоконтента особых требований нет, вы можете просто взять ролик с Youtube.
Не забудьте проверить текст на орфографию и пунктуацию. Используйте для этого онлайн-сервисы Орфограммка, ОРФО Online или Text.ru.
Алгоритмы поиска Google 2022 — хронология
Мы уже рассказывали о том, как работают фильтры «Яндекс» и фильтры Google. Но кроме фильтров, в ранжировании участвуют и алгоритмы поисковых систем. Сегодня рассмотрим основные алгоритмы, которые не дают сайтам подняться в выдаче: как они работают и что нужно сделать, чтобы улучшить позиции.
Читайте также:
Действующие фильтры Google: проявление, диагностика и устранение причин
Как работают алгоритмы Google
В отличие от фильтров, алгоритмы не исключают страницы из выдачи, а снижают их позицию. Например, если сначала страница была на 5 месте, то с выходом нового алгоритма она попадает на 25-30 место и дальше. Поисковая система начала выпускать обновления алгоритмов ранжирования в 2003 году. Тогда вышел «Бостон» — первое официальное изменение ранжирования сайтов. Позже часть алгоритмов была отменена, а некоторые работают и до сих пор.
Принцип работы алгоритмов достаточно прост: сначала система сканирует и индексирует страницы, а затем отображает их в выдаче, учитывая персонализацию и релевантность. Поисковая система выделяет несколько ключевых факторов, от которых зависит результат поиска:
- анализ слов и выражений, проверка орфографии, подбор синонимов;
- подбор подходящих страниц с экспертным контентом;
- ранжирование релевантных страниц — от более качественных к менее качественным;
- показ наиболее подходящих результатов — формирование топа выдачи;
- персонализация — анализ геолокации, социальных факторов, предыдущих запросов.
Интересный факт. Система Google хранит данные об интересах пользователей. Она формирует список тем на основании запросов и их контекста. Проверить свой портрет можно в сервисе «Настройка рекламных предпочтений».
Какие алгоритмы использует Google в ранжировании сайтов
Рассмотрим существующие алгоритмы ранжирования — все они влияют на выдачу, делая ее персонализированной и полностью отвечающей запросам пользователей.
Алгоритм Google YMYL (Your money — your life, E-A-T)
- Год выпуска: 2018.
- Что отслеживает: размещение экспертных материалов.
Этот алгоритм ориентирован на сайты с информацией, которая может повлиять на физическое или финансовое благополучие. Это следующие тематики:
- медицина;
- юридические услуги;
- финансовые операции;
- покупки;
- официальные источники информации;
- безопасность.
Контент, размещенный на таких сайтах, должен составляться на основании трех главных принципов: авторитетность, экспертность, добросовестность. Алгоритм направлен на устранение из выдачи тех сайтов, которые публикуют некачественную и недостоверную информацию, использование которой несет риски для жизни и благополучия. С его введением из индекса начали выпадать статьи с малополезными SEO-текстами, которые не проходят экспертизу перед публикацией.
Читайте также:
Что такое SEO-статья и как правильно писать SEO-тексты
За что можно получить ограничения:
- отсутствие авторства статей;
- нет экспертности в контенте;
- неактуальное содержимое;
- отсутствие документов, подтверждающих экспертность — дипломов, сертификатов, лицензий;
-
недостаточно качественные страницы.
Асессоры — специально обученные люди, которые помогают нейросети определять сайты с экспертным контентом. Стоит заранее позаботиться о том, чтобы заранее предоставить информацию о подтверждении экспертности.
Как привести сайт в соответствие алгоритму YMYL:
Нарушение | Проверка и устранение | Профилактика |
Отсутствие авторства | Проверить все публикации на указание авторов статей, обозначить их экспертность, дать ссылки на их социальные сети | Сразу формировать карточки экспертов и использовать их при публикации материала |
Неактуальное содержимое | Регулярно обновлять и дополнять статьи, если появилась новая информация по теме публикации | При создании контента проверять актуальность информации |
Отсутствие подтверждающих документов | Пройти по карточкам экспертов, проверить блоки «О нас» на наличие сертификатов и разрешающих документов | Добавлять документы и лицензии при создании сайта |
Hummingbird (Колибри)
-
Год выпуска: 2013.
- Что отслеживает: соответствие ключевых фраз интенту пользователя.
«Колибри» — это часть алгоритма, которая помогает улучшить выдачу информативного контента. Она оценивает естественность вхождения ключевых фраз, находит перекосы по плотности текста, проверяет использование LSI (синонимов, подсветок и подсказок из выдачи). Если контент не соответствует теме, позиции сайта снизятся, а страницы могут получить пометку о малоценности.
Как привести сайт в соответствие алгоритму «Колибри»:
Нарушение | Проверка и устранение | Профилактика |
Неестественный текст, который трудно читается |
Проанализировать контент на естественность.![]() |
Проверять весь размещаемый контент на естественность. При сборе семантики использовать не только ключи, но и синонимы, подсветки, слова из правой колонки. |
Pigeon (Голубь)
- Год выпуска: 2014.
- Что отслеживает: оптимизация местного поиска.
Этот алгоритм помогает региональным сайтам быть выше в выдаче, чем не имеющим географической привязки. Один из первых фильтров, который улучшил показатели ресурсов в выдаче, а не пессимизировал их. Изначально он использовался только в пределах США, затем начал применяться в отношении всех англоязычных ресурсов. Сейчас применяется в отношении всех сайтов, где есть региональность.
Как использовать:
- заполнить карточку организации в Google Мой Бизнес;
- сделать региональные контакты на сайте: городской номер, почтовый адрес;
- использование локального контента — местное портфолио, отзывы;
-
использовать местные ссылки.
Читайте также:
Продвижение англоязычных сайтов
HTTPS
- Год выпуска: 2014.
- Что отслеживает: наличие SSL-сертификата на сайте.
В анонсе от 6 августа 2014 года представители Google официально объявили, что будут отдавать приоритет в выдаче тем сайтам, которые используют защищенное соединение. Это нужно не только ресурсам, которые собирают и передают личные данные — через формы обратной связи, телефоны и личный кабинет. Сайт, у которого нет SSL-сертификата, может получить отметку о том, что он может быть потенциально опасным, а это снизит количество переходов на ресурс.
Пример отметки о небезопасности сайта
Этот алгоритм не только искусственно снижает позиции сайта в выдаче — наличие окна из примера выше негативно влияет на поведенческие факторы. Пользователи просто закрывают вкладку и сразу возвращаются к поиску.
Как привести сайт в соответствие HTTPS:
Нарушение | Проверка и устранение | Профилактика |
Отсутствие SSL-сертификата | Проверить наличие через SSL-чекер | Подключать сертификат сразу, как только сайт выходит в индексацию |
Продвижение сайта в ТОП-10
- Оплата по дням нахождения в ТОП
- Подбираем запросы, которые приводят реальных покупателей!
Mobilegeddon (Mobile-Friendly)
-
Год выпуска: 2015.
- Что отслеживает: адаптивность мобильной версии сайта.
С распространением мобильных устройств Google начал понижать в выдаче те сайты, у которых нет адаптированной мобильной версии. Здесь владельцы часто пытаются сэкономить на адаптивности, потому что нужно оптимизировать контент, а потому запускают отдельную мобильную версию сайта.
Такой подход не приветствуется ПС: придется делать дубли контента, а еще эти два сайта будут ранжироваться как отдельные. Поэтому сейчас лучше сразу адаптировать контент и проверять его отображение на мобильных устройствах.
Как привести сайт в соответствие алгоритма «Mobilegeddon»:
Нарушение | Проверка и устранение | Профилактика |
Отсутствие адаптивной версии | Оценка отображения мобильной версии — либо через консоль браузера или через GSC | Сразу давать задание программисту на верстку адаптивной версии сайта |
Читайте также:
Мобильные версии сайтов 2021: интересные тенденции и неожиданные выводы
RankBrain
-
Год выпуска: 2015.
- Что отслеживает: соответствие контента запросу пользователя.
Этот алгоритм направлен на определение того, что имел в виду пользователь, если по запросу это не очевидно. Он оценивает качество контента на сайте и его соответствие. Под действием алгоритма сайт тоже теряет позиции в выдаче, а страницы могут быть отмечены как малоценные.
Как привести сайт в соответствие алгоритму «RankBrain»:
Нарушение | Проверка и устранение | Профилактика |
Недостаточная глубина раскрытия тем на сайте | Привлекать экспертов для проверки полноты и достоверности информации |
Привлекать экспертов к написанию статей до публикации.![]() |
BERT
- Год выпуска: 2019.
- Что отслеживает: естественный язык в контенте и работа с контекстом сайта.
Это усовершенствованный аналог Rank Brain. Алгоритм затронул порядка 10 % сайтов. Он учится понимать язык так, как его понимают люди.
Представители Google назвали это обновление одним из самых масштабных за 5 лет. С его помощью ПС учится более глубоко понимать контекст запроса и соответствие контента на сайте.
Possum/Hawk
- Год выпуска: 2016/2017.
- Что отслеживает: спам в локальной выдаче.
В 2016 году Google начал исключать спам в локальной выдаче: он убирал из выдачи клоны компаний, а также пессимизировал расположенные в одном месте идентичные бизнесы.
Но возникла проблема: из индекса начали вылетать сайты организаций, которые располагаются по одному адресу. Тогда представители ПС анонсировали дополнение — Hawk, оно смягчило действие «Опоссума». В выдачу вернулись сайты организаций, расположенных по одному адресу.
Как использовать:
- Максимально полно заполнить карточку организации в Google Мой Бизнес: адрес, телефоны, сайт, фотографии.
Строго говоря, это не нарушение, а просто часть алгоритма, которая помогает лучше ранжироваться по заданному региону.
Fred (Maccabees)
- Год выпуска: 2017.
- Что отслеживает: обилие рекламы, некачественные ссылки, аффилиат-сайты.
«Фред» — масштабное обновление алгоритма Google, которое затронуло сайты с большим количеством рекламы, аффилиат-сайты, а также ресурсы с обилием некачественных ссылок. В результате наложения снижаются позиции сразу всего сайта.
Читайте также:
Внешняя оптимизация сайта: как продвигать сайт с помощью сторонних ресурсов
Как привести сайт в соответствие алгоритму «Fred»:
Нарушение | Проверка и устранение | Профилактика |
Много рекламы | Проверить наличие рекламных блоков | Уменьшить объемы и агрессивность рекламных объявлений |
Аффилированность сайтов | Провести проверку на аффилированность и попробовать продавать партнерские товары у себя, без перенаправления на другие сайты | Заключить договор с партнерами и продавать их товары у себя |
Много некачественных ссылок с сайта | Проверить ссылки через Screaming Frog и удалить ненужные | Не использовать больше 5 ссылок на странице |
Speed Update (Время загрузки)
-
Год выпуска: 2018.
- Что отслеживает: скорость загрузки страниц.
Оптимизированные страницы начинают получать более высокие позиции в выдаче, чем страницы с большим объемом контента на странице. Долгая скорость загрузки сказывается на поведенческих факторах, и сайт начинает проседать по качеству.
Как привести сайт в соответствие алгоритму «Speed Update»:
Нарушение | Проверка и устранение | Профилактика |
Долгая загрузка страниц |
С помощью инструмента Google Page Speed Insights проверить скорость загрузки и устранить основные причины: удалить неиспользуемые фрагменты кода, подключить использование кеша, оптимизировать изображения, etc.![]() |
Проверять скорость загрузки сразу |
Sandbox и DomainAge
Ограничение индексации для молодых доменов. Официально этот алгоритм не подтвержден представителями Google, но все же многие SEO-специалисты отмечали, что в первые полгода домен получает меньше трафика, чем дальше.
Бороться с «Песочницей» не стоит — лучше потратить это время на совершенствование контента, чтобы в дальнейшем получить более высокие позиции в выдаче.
Что проверить, чтобы не попасть под алгоритмы Google
- Экспертность контента: наличие авторства, ссылок на соцсети авторов.
- Актуальность текущей семантики.
- Наличие слов из правой колонки и синонимов в семантике.
-
Региональность сайта — если продвигаетесь не в рамках всей страны.
- Наличие SSL-сертификата.
- Адаптивность мобильной версии.
- Полное заполнение карточки организации в Google Мой бизнес.
- Наличие и объем рекламных блоков на сайте.
- Аффилированность сайта.
- Качество ссылок на внешние ресурсы.
- Скорость загрузки страницы.
- Возраст домена.
Присоединяйтесь к нашему Telegram-каналу!
- Теперь Вы можете читать последние новости из мира интернет-маркетинга в мессенджере Telegram на своём мобильном телефоне.
- Для этого вам необходимо подписаться на наш канал.
Что такое поисковая система — определение, принцип работы алгоритмов Яндекс и Google
В статье разберем особенности процесса: как работает поисковая система, на каких принципах работы держатся алгоритмы ранжирования поисковика, как устроена выдача Яндекс и Google и для чего нужны все эти возможности в интернете.
- Общие принципы обработки информации
- Spider
- Crawler
- Indexer
- Database
- Search Engine Results Engine
- Web server
- Принципы работы поисковой системы
- Сбор данных
- Индексация
- Обработка информации
- Ранжирование
- Основные характеристики поисковых систем
- Полнота
- Точность
- Актуальность
- Скорость поиска
- Наглядность
- Принцип работы поисковых систем
- Яндекс
- Заключение
Общие принципы обработки информации
Несмотря на кажущуюся простоту – «запрос-ответ», для формирования топа и его релевантности любой сервис производит сложный процесс взаимодействия различных составляющих.
Spider
Он же «паук», который просматривает домены и дублирует содержимое на выделенные сервера, то есть «обходит паутину» для дальнейшего анализа вспомогательными программами. Он работает только с исходным кодом ресурса и документами формата html.
Crawler
Проверяет все ссылки на сайте, что дает возможность составить древо, и находит точные адреса, которые будут отображаться в поисковой выдаче. Важно учитывать, что битые ссылки сильно осложняют работу программы и впустую расходуют краулинговый бюджет.
Indexer
Алгоритм, который суммирует информацию от двух предыдущих и делит проиндексированные страницы по html-тегам, тем самым создавая список данных.
Database
На основе индексации разделяет полученные данные на две самостоятельные базы:
- Сведения, благодаря которым формируется рейтинг и определяется лист ключевиков, на которые поисковик будет выдавать ссылки.
- Древо со всей метаинформацией. Оно будет применяться для последующих индексаций.
Для того чтобы заново не проходить предыдущие этапы выполняется только сверка структуры, что дает возможность понять, происходили ли какие-либо правки на ресурсе.
Search Engine Results Engine
Программа, определяющая финальное ранжирование и релевантность выдачи при получении определенного запроса. Она определяет, какие из них будут показаны и в топ-10, и в топ-100.
Web server
Сервер, на котором располагается сайт поисковика. Непосредственно с ним взаимодействует пользователь, вводя свой вопрос и получая информацию.
Коммерческий трафик
от 35 600 ₽ Страница услуги
Продвижение по коммерческому трафику от студии SEMANTICA – привлечение целевых пользователей из систем Яндекс и Google. Мы работаем над внутренними и внешними факторами ранжирования и видимостью сайта в поисковиках. Вы получаете рост посещаемости и высокий охват среди своих потенциальных клиентов.
Принципы работы поисковой системы
Основными этапами формирования базы данных являются индексация и ранжирование. Чтобы человек получал максимально точный ответ на свой вопрос, алгоритмы Яндекса и Гугла сегодня активно используют методы машинного обучения. Благодаря способам противопоставления двух различных результатов и настройке схемы обработки, робот понимает, какая страница будет наиболее полезной. Это делает возможным вывод релевантности или рейтинга, который есть у каждого сайта после обхода поисковиком. Чем этот показатель выше, тем выше позиция ресурса в выдаче. Этот процесс также делится на несколько подпроцессов.
Сбор данных
Как только появляется необходимость обхода, начинается автоматический анализ с использованием программ Spider и Crawler, которые собирают сведения и систематизируют их.
Индексация
Производится регулярно с определенными интервалами. После нее ресурс попадает в базу поисковика. По окончании этого действия формируется файл индекса, который в дальнейшем применяется для оперативного нахождения конкретного материала на странице.
Обработка информации
При поступлении запроса от пользователя производится его анализ и выделение ключевых слов, поиск которых проходит по файлам индекса. На основе этого определяются все результаты, похожие на изначальный.
Ранжирование
Из полученных результатов формируется список от наибольшего к наименьшему совпадению. Также на этом этапе происходит вычисление релевантности для отображения.
В зависимости от используемой ПС, принцип отбора может варьироваться, но основные факторы таковы:
- соответствие текста интенту;
- оптимизация;
- авторитетность домена;
- цитируемость;
- похожий контент.
Что такое DDoS атака и как от нее защититься?
Что называется DDoS-атакой ДДоС атака — это вид киберпреступления, при котором на сайт поступает колоссальное количество трафика, нарушающее его работу и ограничивающее доступ к нему обычным пользователям. О них впервые заговорили в 1999 году, когда сайты крупных западных компаний подверглись массовым нападениям. Одна из самых известных и масштабных произошла в 2020 году и нацелена была на Amazon Web Services (AWS). Пиковый объем трафика составил 2,3 Тбит/с, несмотря на то, что DDoS атака на сайт была смягчена AWS Shield — сервисом…
Основные характеристики поисковых систем
С точки зрения рядового пользователя самая важная функция – получить ответ на вопрос. Но на самом деле у поисковика есть и другие важные критерии оценки контента.
Полнота
Условное соотношение числа ресурсов с прямым ответом на изначальный запрос от общего их количества в выдаче. Чем выше этот показатель, тем полнее анализ сервисом своих баз данных.
Точность
Более конкретный показатель, который дает возможность показывать в топе не просто ресурсы с прямым вхождением ключа, но и понимание, что именно хочет увидеть пользователь. Так, например, вводя «купить машину», человек не хочет увидеть сайты, где автолюбители делятся впечатлениями от совершенных сделок. Ему интересны страницы салонов, который занимаются продажей авто.
Актуальность
Как видно из названия, определяется тем, насколько актуальными будут полученные сведения, то есть сколько времени прошло с их размещения. Для большинства ПС этот период может составлять до трех месяцев, а для релевантных доменов два-три дня.
Скорость поиска
Формируется из временного показателя, который требуется сервису для формирования списка поисковой выдачи, после получения запроса. Он напрямую зависит от вычислительных мощностей оборудования, которое используется для обработки данных, но также может меняться исходя из общего объема получаемой информации. Из-за чего его часто называют «стрессоустойчивость» или «готовность к нагрузкам». Для больших поисковиков скорость обработки может достигать ста миллионов в секунду.
Наглядность
Клиентская оценка, которая формируется на основании того, насколько точные сведения попадают в топ 10. Так как не увидев прямого ответа на первой странице, как правило, принимается решение воспользоваться другим сервисом.
Продвижение блога
от 46 200 ₽ Страница услуги
Продвижение блога от студии SEMANTICA — увеличение потока пользователей на сайт и повышение экспертности бренда в глазах целевой аудитории. Мы создаем востребованный контент, отвечающий на запросы потенциальных клиентов, оптимизируем статьи и настраиваем коммерческие триггеры. Вы получаете ощутимый прирост переходов в каталог товаров и услуг из блогового раздела.
Принцип работы поисковых систем
Самыми популярными для продвижения в Российском сегменте являются Гугл и Yandex. Далее разберемся, что учитывается при ранжировании в этих ПС.
Данные получаются из различных типов контента, например, тексты статей, музыка, видео, карты и справочники.
В этом процессе можно выделить три основных этапа:
- Сканирование. Роботы производят сбор сведений со страниц и файлов. За каждый тип информации отвечает отдельный бот. Для сканирования применяется Googlebot, для ранжирования PageRank, мобильная версия проверяется Mobile, а Image предназначен для поиска изображений. Также в процессе определяются дубли. Для упрощения работы краулерам, необходимо, чтобы у ресурса была карта-сайта (Sitemap).
- Индексирование. После сбора происходит обработка полученных данных.
- Показ результатов в ответ на запрос.
Помимо перечисленного, на место домена в SERP влияет еще и следующие факторы:
- E-A-T;
Введен, дабы избежать распространения фейков из источников, на первый взгляд, кажущихся авторитетными. Применяется к статьям на медицинские и научные тематики, которые могут напрямую повлиять на жизнь и здоровье людей. Теперь весь контент, претендующий на звание экспертного, обязан соответствовать трем основным требованиям: компетентность, авторитет, достоверность. Это значит, что такого рода информация должна быть написана от лица специалистов в области, имеющих официальное подтверждение в виде дипломов и сертификатов.
- опыт пользователя;
Результат взаимодействия человека с сайтом. Складывается из удобного дизайна, времени ожидания, адаптивности под различные виды устройств.
- Mobile-Friendly;
Сюда относятся такие показатели как: ширина контента на экране смартфона, размер шрифта и расположение интерактивных элементов.
- ПФ;
Поведенческие факторы – это взаимосвязь действий пользователя с характеристиками сайта. Сюда относятся взаимодействия со страницей, отказы, глубина просмотра.
- скорость загрузки.
Сейчас один из главных показателей у Гугла, определяющий качество ресурса. Оптимальное время должно составлять не более 2-х секунд, вне зависимости от устройства. Недавно сюда добавился такой пункт как Core Web Vitals. CWV демонстрирует, насколько в целом домен оптимизирован для взаимодействия, а не только как быстро он открывается.
Яндекс
За релевантную выдачу здесь отвечает алгоритм YATI. Он достаточно молодой, так как был запущен только в 2020 году. Принцип его работы базируется на машинном обучении, а основной его задачей было улучшение ответов и голосового поиска.
С ним пришли и новые требования к ресурсам, желающих занять свое место в SERP:
- Больше внимания рекомендуется удалить «длиннохвостым» и низкочастотным запросам, а также использованию синонимов.
Это поможет давать более точные ответы на поставленные вопросы.
- Высокое качество контента. Малоинформативные и мусорные страницы будут удаляться.
- Представление материалов в формате лонгридов.
- Естественность ПФ. Yandex блокирует домены, замеченные в накрутке поведенческих факторов. Чтобы в этому не прибегать, найдите, чем заинтересовать свою целевую аудиторию.
Доступность сайта: что такое и как проверить
В этой статье расскажем, как проверить доступность сайта и на что обратить внимание. Почему важно отслеживать изменения и доступность сайтов Отслеживание работы сайта — такой же важный аспект в продвижении, как и его оптимизация. Если ваш сайт долго загружается, при подключении возникает ошибка безопасности или домен сайта становится недоступен, онлайн-продаж и заявок с сайта ждать не стоит. Когда сайт недоступен для пользователей, он недоступен и для поисковых ботов. Боты не проиндексируют сайт, если сервер недоступен или срок действия домена или…
Заключение
Сегодня мы получили определение, что такое алгоритмы поисковых систем, какое они имеют значение и зачем нужно применяться различные способы оптимизации для попадания в ТОП.
Алгоритмы ранжирования поисковых систем
Алгоритм ранжирования – это так называемая сортировка сайтов в выдаче, которая меняется в процессе функционирования той или иной поисковой системы. Существует большое количество факторов, согласно которым происходит ранжирование: рейтинг веб-ресурса, соответствие текста поисковым запросам, объём и качество ссылочной массы.
Сегодня ранжирование интернет-ресурсов основывается на полезности сайта. Для того, чтобы вас заметили поисковики, нельзя обходиться одними seo-приемами (прописывание мета-тегов, внутренней перелинковки, заголовков), уникализированием контента и подписей к изображениям. Очень важно учитывать и поведенческий фактор, т.е. насколько сайт интересен пользователям: глубина просмотра, время, которое пользователи провели на веб-ресурсе, показатели отказов и другие данные из аналитики.
Алгоритмы ранжирования интернет-ресурсов меняются в процессе модернизации поисковых систем и интернета в целом. При улучшении алгоритмов берется во внимание контент, авторитетность, а также внешние и внутренние факторы ранжирования.
Внутренние факторы ранжирования:
- Контент.
- Мета-теги.
- Заголовки и выделение жирным шрифтом.
- Общая структура, навигация и внутренняя перелинковка.
- Внешние ссылки на сторонние интернет-ресурсы.
Полезный и качественный контент – это важнейший фактор ранжирования. Бывает так, что оптимизаторы в погоне за 100% уникальностью текста, забывают о его читабельности и релевантности. Либо не берут во внимание то, как важна актуальность публикуемых материалов.
Важно, чтобы поисковые роботы видели, что мета-теги страницы соответствуют ее наполнению.
Для того, чтобы поисковики вознаградили вас высокой позицией, важно учитывать простые правила: самый важный заголовок с темой статьи выделяем тегами; заголовки более низкого порядка – тегами h3, h4 и т.п., ключевые термины и акценты – жирным шрифтом. Важно помнить, что усердствовать с выделением слов с помощью жирного шрифта не стоит.
Четкая структура сайта – еще один приоритетный момент. А внутренняя перелинковка поможет повысить ранг молодого ресурса. Суть линковки – в связывании внутренних страниц сайта ссылками друг на друга, что поможет нарастить вес каждой из них.
Присутствие на веб-сайте нетематических ссылок на сторонние ресурсы способно понизить позиции в поисковиках. Огромный поток рекламы может себе позволить только сайт с большим весом, а молодым неавторитетным ресурсам такие эксперименты опасны.
Внешние факторы ранжирования:
- Внешние ссылки на сайт.
- Присутствие интернет-ресурса в авторитетных каталогах.
Важно и количество ссылок, и их качество. Благодаря ссылке сайту-акцептору передается от сайта-донора часть веса, т.е. передается тИЦ и PR. Также большое значение играет и релевантность анкоров продвигаемым ключевым запросам.
Например, Яндекс.Каталоге. Это также даст положительный эффект при ранжировании. Ранее вес сайту могла принести регистрация в DMOZ-каталоге, однако в марте 2017 года интернет-каталог был закрыт и больше не принимает сайты на добавление в реестр. Все уже занесенные в каталог сайты находятся по адресу — http://dmoztools.net/.
Дополнительные моменты:
- Домен сайта – его возраст и положительная история.
- Число переходов на веб-ресурс из поисковиков – кликабельность сниппета в поисковой выдаче.
- Возраст сайта и домена – чем дольше и «чище» история сайта и домена, тем больше преимущество перед «новичками» в выдаче.
Еще на эту тему
Статьи из нашего блога
Как оценить и улучшить поведенческие факторы на своем сайте: чек-лист
…
15.10.2020 9168
Алгоритм Яндекса «Баден-Баден»: чем страшен и как снять
…
19.05.2020 4680
Алгоритм Яндекса «Минусинск». Причины, признаки и как не попасть под фильтр
Разбираемся в том, что такое алгоритм Яндекса «Минусинск», к…
25.06.2018 6628
Оставить заявку
Мы используем файлы cookie, чтобы вам было ещё удобнее пользоваться нашим сайтом.
Подробнее.
Что такое алгоритм поиска?
Вернуться к блогу
16 октября 2018 г.
Алгоритм поиска — это уникальная формула, которую поисковая система использует для извлечения определенной информации, хранящейся в структуре данных, и определения значимости веб-страницы и ее содержимого. Алгоритмы поиска уникальны для их поисковой системы и определяют ранжирование веб-страниц в результатах поиска.
Общие типы алгоритмов поиска
Поисковые системы используют специальные алгоритмы, основанные на размере и структуре их данных, для получения возвращаемого значения.
Алгоритм линейного поиска
Алгоритмы линейного поиска считаются самыми основными из всех алгоритмов поиска, поскольку для их реализации требуется минимальный объем кода. Алгоритмы линейного поиска, также известные как последовательный поиск, представляют собой простейшую формулу для алгоритмов поиска. Алгоритмы линейного поиска лучше всего подходят для коротких списков, которые неупорядочены и не отсортированы. Чтобы найти то, что ищется, алгоритм просматривает элементы в виде списка. Как только он доберется до искомого элемента, поиск будет завершен. Линейный поиск не является распространенным способом поиска, поскольку это довольно неэффективный алгоритм по сравнению с другими доступными алгоритмами поиска.
Простой пример алгоритма линейного поиска:
Допустим, вы встречаетесь со своей подругой Стефани сегодня вечером в кино на премьере нового фильма. Она предлагает купить билет и подождать в очереди, пока в театре не будет свободных мест. Как только вы приходите в театр, вы замечаете, что очередь длинная, и вы понятия не имеете, где находится ваш друг в очереди. Тем не менее, вы знаете, как выглядит Стефани, поэтому по пути вы начинаете с конца очереди и сканируете лицо каждого человека в поисках своей подруги. Как только вы найдете ее, вы встанете в очередь рядом с ней. Вы только что следовали алгоритму линейного поиска. Очередь длинная, а люди беспорядочные, поэтому лучший способ найти того, кого вы ищете, — это просканировать очередь от одного конца до другого.
Алгоритм бинарного поиска
Алгоритм бинарного поиска, в отличие от алгоритмов линейного поиска, использует упорядочение списка. Этот алгоритм является лучшим выбором, когда в алисте есть термины, расположенные в порядке возрастания размера. Алгоритм начинается с середины списка. Если цель ниже средней точки, то она исключает верхнюю половину списка; если цель выше средней точки, то вырезается нижняя половина списка. Для больших баз данных алгоритмы бинарного поиска будут давать гораздо более быстрые результаты, чем алгоритмы линейного поиска.
Двоичный поиск использует цикл или рекурсию, чтобы разделить область поиска пополам после выполнения сравнения.
Алгоритмы бинарного поиска состоят из трех основных разделов, чтобы определить, какую половину списков следует исключить и как просмотреть оставшуюся часть списка. Предварительная обработка отсортирует коллекцию, если она еще не упорядочена. Двоичный поиск использует цикл или рекурсию, чтобы разделить область поиска пополам после выполнения сравнения. Постобработка определяет, какие переменные-кандидаты остаются в пространстве поиска.
Простой пример алгоритма бинарного поиска:
Вы ищете свой любимый синий свитер в гардеробной. Вы согласовали цвет своей одежды справа налево на основе стандартной теории цвета ROYGBIV. Вы открываете дверь и идете прямо в середину вашего шкафа, где находится ваша зеленая одежда, и вы автоматически отбрасываете первую половину вариантов, так как они не близки к тем вариантам цвета, которые вы ищете. Как только вы исключили половину своих вариантов, вы понимаете, что ваш выбор синей одежды велик и составляет большую часть второй половины вариантов одежды, поэтому вы переходите к середине раздела синего / индиго. Вы можете исключить индиго и фиолетовые цвета. Оттуда все, что у вас осталось, это зеленый и синий, и вы можете выбрать свой любимый синий свитер из оставшейся одежды. Сократив количество вариантов одежды вдвое, вы сможете вдвое сократить время поиска, чтобы сузить свой выбор до любимого синего свитера.
Как поисковые алгоритмы влияют на поисковую оптимизацию
Алгоритмы поиска помогают определить рейтинг веб-страницы в конце поиска, когда отображаются результаты.
Каждая поисковая система использует определенный набор правил, чтобы помочь определить, является ли веб-страница реальной или спамом, и будут ли содержимое и данные на странице представлять интерес для пользователя. Результаты этого процесса в конечном итоге определяют рейтинг сайта на странице результатов поисковой системы.
Несмотря на то, что каждый набор правил и формул алгоритма различается, поисковые системы используют релевантность, индивидуальные факторы и факторы вне страницы для определения рейтинга страницы в результатах поиска.
Актуальность
Поисковые системы выполняют поиск по содержимому веб-страницы и тексту в поисках ключевых слов и их местонахождения на веб-сайте. Если ключевые слова встречаются в заголовке страницы, заголовке и первых нескольких предложениях на странице сайта, то эта страница будет ранжироваться по этому ключевому слову лучше, чем другие сайты. Поисковые системы могут сканировать, чтобы увидеть, как ключевые слова используются в тексте страницы, и определить, соответствует ли страница тому, что вы ищете. Частота ключевых слов, которые вы ищете, повлияет на релевантность сайта. Если ключевые слова вставлены в текст сайта и он не течет естественным образом, поисковые системы пометят это как наполнение ключевыми словами. Наполнение ключевыми словами снижает релевантность сайта и ухудшает рейтинг страницы в результатах поиска.
Индивидуальные факторы
Поскольку алгоритмы поиска специфичны для поисковых систем, индивидуальные факторы исходят из способности каждой поисковой системы использовать собственный набор правил для применения алгоритма поиска. Поисковые системы имеют разные наборы правил для того, как они ищут и сканируют сайты; за добавление штрафа сайтам за спам ключевых слов; и сколько сайтов они индексируют. В результате, если вы выполните поиск «домашнего декора» в Google, а затем снова в Bing, вы увидите две разные страницы результатов. Google индексирует больше страниц, чем Bing, и чаще, и в результате показывает другой набор результатов для поисковых запросов.
Факторы вне страницы
Внешние факторы, которые помогают поисковым системам определять рейтинг страницы, включают в себя такие вещи, как гиперссылки и измерение кликов. Измерения количества кликов могут помочь поисковой системе определить, сколько людей посещают сайт, сразу ли они покидают сайт, сколько времени они проводят на сайте и что ищут. Плохие факторы вне страницы могут снизить релевантность сайта и рейтинг SEO, поэтому важно учитывать эти элементы и работать над их улучшением, если это необходимо.
Как только вы лучше поймете, как работают поисковые алгоритмы, их роль в поисковой оптимизации и рейтинге сайта, вы сможете внести необходимые изменения в сайт, чтобы улучшить его рейтинг. В Volusion наша команда специалистов по поисковой оптимизации (SEO) может помочь вам внести коррективы и настроить ваш сайт так, чтобы он был должным образом оптимизирован для поисковых систем. Свяжитесь с нами сегодня, и мы поможем вам начать SEO-продвижение ваших сайтов!
Готовы вывести оптимизацию электронной коммерции на новый уровень? Узнайте, как Volusion может помочь вам увеличить посещаемость и продажи вашего магазина!
Похожие темы SEOБудьте в курсе
Подпишитесь на информационный бюллетень Volusion
Получите больше отраслевых идей, советов и эксклюзивных предложений, отправленных прямо на ваш почтовый ящик.
При подписке произошла ошибка. Попробуйте обновить страницу и отправить еще раз.
Спасибо что подписались.
Все, что вам нужно знать
Часто я концентрируюсь на определенных стратегиях для выполнения определенных функций.
Как написать привлекательный текст, чтобы занять место в голосовом поиске?
Какие структурированные данные позволяют легко выигрывать?
Такие вещи.
Эти важные вопросы часто освещаются здесь, в Search Engine Journal, в очень полезных статьях.
Но важно не только понимать, какие тактики могут помочь вам в рейтинге. Вы должны понять как это работает.
Понимание структуры, в которой функционирует стратегия, имеет первостепенное значение для понимания не только того, почему эта стратегия работает, но и того, как и чего она пытается достичь.
Ранее мы обсуждали, как поисковые системы сканируют и индексируют информацию.
В этой главе рассматриваются основы работы алгоритмов поиска.
Что такое алгоритм? РецептЕсли вы спросите Google, что такое алгоритм, вы обнаружите, что сам движок (и почти все остальные) определяет его как «процесс или набор правил, которым необходимо следовать при вычислениях или других операциях по решению проблем». , особенно с помощью компьютера».
Если вы берете что-то из этого определения, очень важно понять, чем оно не является в нашем контексте.
Алгоритм — это , а не формула.
Чтобы осознать разницу, почему она важна и что делает каждый из них, давайте на минутку задумаемся о еде, которую я мог бы положить на свою обеденную тарелку сегодня вечером.
Возьмем мое любимое блюдо:
- Ростбиф
- Хрен
- Йоркширский пудинг
- Зеленая фасоль
- Картофельное пюре
- Соус
(Правильно, мы, канадцы, едим больше, чем путин и кленовый сироп, хотя и то, и другое прекрасно, хотя, вероятно, и не вместе.)
Ростбиф должен быть приправлен и идеально приготовлен.
Приправа в сочетании с жареным мясом может служить примером формулы – сколько каждого ингредиента необходимо для производства продукта.
Второй используемой формулой будет количество времени и температура, в течение которой должно быть приготовлено жаркое, учитывая его вес. То же самое будет происходить для каждого элемента в списке.
На самом базовом уровне у нас было бы 12 формул (6 элементов x 2 — одна для измерений, а другая для времени и продолжительности приготовления в зависимости от объема), составляющих алгоритм, заданный для создания одного из любимых блюд Дейва.
Мы даже не включаем различные формулы и алгоритмы, необходимые для производства самих ингредиентов, таких как разведение коровы или выращивание картофеля.
Давайте добавим еще одну формулу — формулу для расчета количества различных продуктов, которые я хотел бы иметь на своей тарелке.
Итак, теперь у нас есть алгоритм для выполнения этой очень важной задачи. Фантастика!
Теперь нам просто нужно персонализировать этот алгоритм, чтобы остальная часть моей семьи тоже наслаждалась едой.
Мы должны учитывать, что каждый человек индивидуален и может хотеть разное количество каждого ингредиента и разные приправы.
Итак, добавляем формулу для каждого человека. Хорошо.
Алгоритм алгоритмовЧто, черт возьми, общего у алгоритма поиска и обеденного стола?
Гораздо больше, чем вы думаете.
Давайте посмотрим на несколько основных характеристик веб-сайта для сравнения. («Немногие» означает далеко не все. Например, даже не близко.)
- URL-адреса
- Содержание
- Внутренние ссылки
- Внешние ссылки
- Изображения
- Скорость
Как мы видели с нашим алгоритмом обеда, каждая из этих областей далее делится с использованием разных формул и, по сути, разных подалгоритмов.
Было бы лучше, если бы мы думали об этом не как алгоритм , а как алгоритмов .
Также важно иметь в виду, что, несмотря на множество алгоритмов и бесчисленное количество формул, существует еще и алгоритм.
Его работа заключается в том, чтобы определить, как эти другие взвешиваются для получения окончательных результатов, которые мы видим в поисковой выдаче.
Таким образом, совершенно законно признать, что наверху существует какой-то тип алгоритма — так сказать, единый алгоритм, управляющий всеми — но всегда признают, что существует бесчисленное множество других алгоритмов, и обычно это те алгоритмы, о которых мы думаем, когда рассматриваем их влияние на результаты поиска.
Теперь вернемся к нашей аналогии.
У нас есть множество различных характеристик веб-сайта, который оценивается, так же как у нас есть ряд продуктов, которые должны оказаться на нашей обеденной тарелке.
Чтобы получить желаемый результат, мы должны иметь большое количество формул и подалгоритмов для создания каждого элемента на пластине и мастер-алгоритм для определения количества и размещения каждого элемента.
Знакомо?
Когда мы думаем об «алгоритме Google», на самом деле мы имеем в виду огромный набор алгоритмов и формул, каждый из которых предназначен для выполнения одной конкретной функции и собран вместе с помощью ведущего или, осмелюсь сказать, «ядра». Алгоритм размещения результатов.
Итак, у нас есть:
- Алгоритмы вроде Panda, помогающие Google оценивать, фильтровать, наказывать и награждать контент на основе определенных характеристик, и этот алгоритм, вероятно, включает в себя множество других алгоритмов.0134
- Алгоритм Penguin для оценки ссылок и устранения там спама.
Но этот алгоритм, безусловно, требует данных от других ранее существовавших алгоритмов, которые отвечают за оценку ссылок, и, вероятно, некоторых новых алгоритмов, которым поручено понять общие характеристики ссылочного спама, чтобы более крупный алгоритм Penguin мог выполнять свою работу.
- Алгоритмы для конкретных задач.
- Алгоритмы организации.
- Алгоритмы, отвечающие за сбор всех данных и размещение их в контексте, который дает желаемый результат, поисковую выдачу, которую пользователи сочтут полезной.
Вот и все. Так работают алгоритмы поиска.
Почему алгоритмы поиска используют сущностиОдной из областей поиска, которая в последнее время привлекает достаточное внимание, хотя и недооценивается, является идея сущностей.
Для контекста объект определяется Google как:
«Вещь или концепция, которая является единственной, уникальной, четко определенной и различимой».
Итак, в нашей аналогии с обедом есть я. Я сущность.
Каждый член моей семьи тоже самодостаточен. На самом деле, моя семейная ячейка представляет собой самостоятельную сущность.
Таким образом, жаркое и каждый ингредиент, входящий в него, также являются самостоятельными сущностями.
Как и йоркширский пудинг, как и мука, которая пошла на его приготовление.
Google видит мир как совокупность сущностей. И вот почему:
За обеденным столом у меня четыре отдельных сущности, у которых будет состояние «еда» и множество потребляемых сущностей.
Такая классификация всех нас имеет много преимуществ для Google по сравнению с простой оценкой нашей деятельности как набора слов.
Каждое едящее существо теперь может назначать ему то, что находится на его тарелке (ростбиф, хрен, стручковая фасоль, картофельное пюре, йоркширский пудинг, но не соус для существа xyz1234567890).
Google использует этот тип классификации для оценки веб-сайта.
Думайте о каждой сущности, сидящей за столом, как о странице.
Глобальная сущность, которая представляет всех нас (давайте назовем эту сущность «Дэвис»), будет посвящена «ужину с ростбифом», но каждая отдельная сущность, представляющая отдельного человека (или страницу в нашей аналогии), отличается.
Таким образом, Google может легко классифицировать и оценивать взаимосвязь веб-сайтов и мира в целом.
По сути, поисковые системы не обязаны оценивать только один веб-сайт — они должны ранжировать их все.
Сущность «Дэвис» говорит об «ужине с ростбифом», но сущность по соседству (назовем эту сущность «Робинсоны») говорит о «жарком».
Теперь, если внешнее лицо, известное как «Халявщик», хочет определить, где поесть, варианты могут быть оценены как «Халявщик» на основе его предпочтений или запроса.
В чем (на мой взгляд) реальная ценность сущностей заключается в том, что происходит на следующий день. У нас есть остатки.
Путем обработки сущности «ростбиф» с использованием другой формулы и добавления сущностей хлеб, сыр и лук мы имеем:
Как алгоритмы поиска используют сущности Хорошо, может показаться неочевидным, насколько это важно для понимания алгоритмов поиска и того, как сущности работают таким образом.
Хотя вы понимаете, какую очевидную ценность имеет видение Google содержания веб-сайта в целом, вы можете спросить, почему для Google важно понимать, что мой ростбиф и соус из говядины связаны между собой и фактически взяты из одной и той же основной сущности. .
Вместо этого давайте рассмотрим, как Google понимает, что веб-страница посвящена ростбифу. Давайте также рассмотрим, что на него ссылается другая страница, и эта страница посвящена соусу из говядины.
В этом сценарии невероятно важно, чтобы Google знал, что ростбиф и соус из говядины готовятся из одной и той же основной сущности.
Они могут назначить релевантность этой ссылке на основе связности этих объектов.
До того, как идея сущностей вошла в поиск, поисковым системам приходилось присваивать релевантность на основе близости слов, плотности и других элементов, которые легко неверно интерпретировать и которыми легко манипулировать.
Сущностями гораздо труднее манипулировать.
Либо страница посвящена объекту, либо нет.
Просматривая веб-страницы и отображая распространенные способы связи сущностей, поисковые системы могут предсказать, какие отношения должны иметь наибольший вес.
Итак, как работают алгоритмы поиска?Итак, мы многое рассмотрели, и вы, вероятно, проголодались. Вы хотите, чтобы некоторые вынос.
Контекст имеет значениеВажно понимать, как работают алгоритмы, чтобы применять контекст к тому, что вы испытываете/читаете.
Когда вы слышите об обновлении алгоритма, важно знать, что то, что обновляется, скорее всего, является маленьким кусочком очень большой головоломки.
Знание этого помогает интерпретировать, какие аспекты сайта или мира корректируются в обновлении и как эта корректировка вписывается в общую задачу движка.
Сущности очень важныКроме того, очень важно понимать, что сущности:
- Сегодня играют огромную роль в поисковых алгоритмах.
- Имеют собственные алгоритмы.
- Со временем будет играть все более важную роль.
Знание этого поможет вам понять не только, какой контент является ценным (насколько близки те объекты, о которых вы пишете?), но и какие ссылки, скорее всего, будут оценены более благоприятно.
И это только пара преимуществ.
Все зависит от намерения пользователяАлгоритмы поиска работают как большой набор других алгоритмов и формул, каждая из которых имеет свою цель и задачу для получения результатов, которыми удовлетворится пользователь.
На самом деле, существуют алгоритмы для отслеживания только этого аспекта результатов и внесения корректировок, когда считается, что ранжирующие страницы не удовлетворяют намерения пользователя, основываясь на том, как пользователи взаимодействуют с ними.
Сюда включены алгоритмы, разработанные специально для понимания объектов и того, как объекты связаны друг с другом, чтобы обеспечить релевантность и контекст для других алгоритмов.
Кредиты изображений
Рекомендуемое изображение: Пауло Бобита
Определение экрана алгоритма: сделано автором
Часы на панели Adobe Stock & Adobe Stock
Алгоритм Google.
Категория SEO
Что вам нужно знать
Алгоритмы поисковых систем меняются почти постоянно. Но ваши планы цифрового маркетинга не должны этого делать.Здесь вы найдете:
- Как работают алгоритмы поисковых систем
- Почему обновления почти невозможно предсказать
- Способы подготовки к изменениям алгоритмов поисковых систем
- Почему контент-маркетинг по-прежнему безраздельно Алгоритм поисковой системы похож на ракетостроение: мы знаем, что он важен, но большинство из нас точно не знают, как он работает.
Каждый год Google выпускает множество обновлений (часто почти без предупреждения), которым удается изменить игровое поле для маркетологов в больших и малых направлениях.
Но даже для профессионалов, которые годами работают в платном поиске, понимание алгоритма поисковой системы может быть сложным. Знание основ позволяет быстро реагировать на новые изменения или заранее подготовить к ним свою кампанию.
Когда вы поймете, как эти алгоритмы могут повлиять на вашу маркетинговую тактику, вы сможете принять меры, чтобы они не сорвали ваши планы.
Что такое алгоритм поисковой системы?Алгоритм поисковой системы представляет собой набор формул, определяющих качество и релевантность конкретного объявления или веб-страницы запросу пользователя.
Сообщается, что Google меняет свой алгоритм сотни раз в год . Хорошие новости: только серьезные изменения (или обновления) могут существенно повлиять на кампании SEM.
Одна из самых больших ошибок маркетологов заключается в том, что они сосредотачивают все свои усилия на лихорадочной адаптации кампании к этим формулам вместо того, чтобы смотреть на картину в целом.
Google использует более 200 факторов ранжирования, определяя, какие результаты показывать и в каком порядке. (Изображение: Unsplash)
Как работают алгоритмы поисковых систем?Поисковые системы делают пользовательский опыт главным приоритетом. Google удалось стать самой популярной поисковой системой на планете за счет создания сложных алгоритмов, которые улучшают процесс поиска, используя изощренные тактики, которые предоставляют пользователям информацию, которую они ищут.
Алгоритм работает со всеми видами деталей для контекста, от очевидных подсказок, таких как воспринимаемое качество контента, до истории спама владельца веб-сайта.
В целом Google использует более 200 факторов ранжирования при определении того, какие результаты следует показывать и в каком порядке.
Однако независимо от того, насколько хорошо вы к ним приспосабливаетесь, каждое новое обновление способно подтолкнуть вас к цели. Хотя обновления могут быть в основном сосредоточены на органическом поиске, они могут иметь не столь очевидные (но очень болезненные) последствия для платного поиска.
Например, ваши объявления могут перестать показываться в качестве ответа на большую часть запросов вашей целевой аудитории просто потому, что целевая страница, на которую они ведут, недостаточно конкретна.
Типы обновлений алгоритмов поисковых системНе все обновления одинаковы.
Практически невозможно отслеживать все обновления, которые предлагает Google, и при этом иметь время, чтобы сосредоточиться на своей маркетинговой стратегии.
- Основные обновления : эти обновления выпускаются нечасто и часто решают определенную проблему с алгоритмом поиска. Например, недавнее обновление Core Web Vitals решает проблемы, связанные с взаимодействием пользователей с веб-страницами. Поисковые системы обычно выпускают их один или два раза в год.
- Обширные обновления: Обновления в этой категории ориентированы на страницы низкого качества. Обычно они регулируют важность нескольких факторов ранжирования.
Например, они могут решить, что скорость загрузки страницы теперь важнее, чем общее количество обратных ссылок. Эти обновления обычно происходят раз в 4-5 месяцев.
- Небольшое обновление s: эти обновления обычно не приводят к значительным видимым изменениям производительности и аналитики вашего сайта. Часто это незначительные изменения, которые улучшают работу поисковика и не влияют на рейтинг высококачественных веб-сайтов. Незначительные обновления могут быть реализованы ежедневно или еженедельно.
В основном внимания заслуживают крупные и масштабные обновления. Однако лишь немногие из них достаточно сильны, чтобы оказать существенное влияние на ваш рейтинг.
Обновление BERTВ 2019 году Google выпустила крупное обновление алгоритма, получившее название BERT . Цель этого обновления заключалась в том, чтобы улучшить перевод поисковой системой запросов на естественном разговорном языке, чтобы улучшить понимание контекста.
Это заставило маркетологов уделять больше внимания намерениям пользователей, чем раньше. До BERT, если вам нужно было сосредоточиться на отдельных ключевых словах в поисковой фразе, полные фразы стали гораздо важнее после обновления.
Например, запрос «приготовление овощей самостоятельно» не должен просто давать список советов по приготовлению овощей. В нем также должны быть даны советы по приготовлению овощей, которые вы вырастили и собрали самостоятельно. В свою очередь, платная реклама должна была стать гораздо более конкретной, ориентированной на намерения аудитории, чтобы оставаться релевантной поисковым запросам.
С каждым новым обновлением Google алгоритмы поисковых систем работают над тем, чтобы стать более полезными для пользователя. К сожалению для цифровых маркетологов, предсказать конкретные изменения практически невозможно.
Понимая общее намерение улучшить опыт поисковика, можно скорректировать свою стратегию SEM, чтобы она не страдала при вступлении в силу новых обновлений.
Обновление MUMВ мае 2021 года Google анонсировала обновление многозадачной унифицированной модели или MUM. Этот ИИ предназначен для анализа контента так же, как это делает человек. Google называет MUM мощной эволюцией алгоритма BERT.
Цель MUM — обрабатывать сложные поисковые запросы, которые не могут быть удовлетворены коротким фрагментом. Чтобы получить ответы на эти типы запросов, пользователю необходимо выполнить в среднем восемь поисковых запросов.
Чтобы решить эту проблему, MUM работает, чтобы прогнозировать эти поиски и предоставлять ответы на первой странице результатов поисковой системы (SERP).
При настройке стратегии SEM для MUM целесообразно сосредоточиться на:
- Высококачественной системе внутренних ссылок
- Использование структурированных данных
- Работа над прогнозированием сложных запросов на пути покупателя, чтобы вы могли дать ответы
- Создание многоуровневого контента и его разделение на фрагменты, удобные для фрагментов
Совет от профессионала: Если вы сосредоточены на пользовательском опыте (как и должно быть), то эти обновления не должны иметь серьезного негативного влияния.
Однако, если вы видите, что ваш рейтинг падает, вот что делать .
Алгоритмы поисковых систем представляют собой сложную систему, помогающую пользователям находить наилучшие ответы на свои запросы. (Изображение: Unsplash)
Как предотвратить негативные последствия обновлений алгоритмовОбновления поисковых систем могут быть такими же непредсказуемыми, как и погода. Единственное, что вы можете знать наверняка, это то, что они произойдет .
Когда это происходит, рейтинг многих веб-сайтов и объявлений может снижаться, даже если это изменение носит временный характер. К счастью, есть способы оставаться готовыми, когда появляются обновления.
1. Сосредоточьтесь на качестве целевой страницыДаже когда появляются обновления, трудно сразу понять, как они повлияют на связь между платным и обычным поиском.
Но всегда ясно одно: высококачественный контент на целевых страницах, скорее всего, положительно повлияет на коэффициент конверсии, независимо от изменений алгоритма.
Всего несколько лет назад целевые страницы не были так важны для платного поиска, потому что они не играли большой роли в процессе кликов по объявлениям. Сегодня, когда Google уделяет особое внимание релевантности и точности поиска, качество целевой страницы является неотъемлемым фактором, особенно при определении таких вещей, как ваш показатель качества .
Поисковые системы уделяют пристальное внимание качеству целевой страницы и релевантности ключевых слов, и вряд ли это изменится. Теперь Google даже отслеживает, как часто пользователь возвращается на страницу поиска после посещения целевой страницы, пытаясь понять, удовлетворен ли он результатом поиска.
Чтобы быть в курсе обновлений, крайне важно поддерживать качество и актуальность как целевых, так и связанных страниц.
2. Не полагайтесь исключительно на ключевые словаОбщая тенденция обновлений алгоритма Google состоит в том, чтобы перейти от гиперфокуса на ключевые слова к более длинным фразам и нюансам.
Конечно, ключевые слова по-прежнему являются неотъемлемой частью SEM. Но построение вашей стратегии исключительно вокруг них может помешать вам увидеть общую картину или создать всестороннюю программу.
Вместо того, чтобы сосредоточиться только на ключевом слове, вы также должны учитывать намерение и релевантность. Посмотрите, как вы можете лучше всего ответить на вопросы, которые задает ваша аудитория. Обращая внимание на то, когда, как и о чем они спрашивают, вы сможете разработать релевантную рекламу и контент целевой страницы, удовлетворяя меняющиеся алгоритмы поисковых систем.
Это может помочь сосредоточиться на пути покупателя, а не только на отдельных ключевых словах, которые пользователи вводят при запуске поиска.
Например, у Google другое представление о релевантности при внедрении MUM. Теперь он оценивает, как ваш контент или целевая страница вписывается в контекст темы. Это включает в себя соответствующие обратные ссылки, внутренние ссылки для кластеров контента и правильную разметку Schema.
3. Ищите предупреждения об обновленияхВ некоторых случаях поисковые системы будут предлагать предварительное уведомление о предстоящем обновлении алгоритма. Еще в апреле 2020 года Google объявил об изменении алгоритма 2021 года, в соответствии с которым Core Web Vitals будет использоваться в качестве факторов ранжирования.
Это дало маркетологам больше года, чтобы ознакомиться с этими новыми факторами и внести соответствующие коррективы. Поскольку Google не всегда сообщает подробности об обновлениях, разумно обратить внимание, когда они появятся.
4. Сохраняйте спокойствие и корректируйте свой контентКогда поисковые системы меняют свои алгоритмы, это может вызвать хаос у маркетологов. Корректировать стратегии и вносить быстрые изменения, чтобы обуздать значительные изменения рейтинга или нерегулярные отчеты, часто бывает безумием. Но иногда эти действия могут еще больше навредить вашей кампании.
Помните, что все, что вы можете сделать, это внести соответствующие улучшения и следовать последним рекомендациям.
5. Реагируйте осторожноЕсли вы используете Google Analytics, отметив, когда произошло обновление алгоритма, вы сможете объяснить любые необычные результаты при извлечении отчетов или опросе клиентов.
Если вы обнаружите, что недавнее обновление алгоритма поисковой системы повредило вашему рейтингу, постарайтесь не паниковать и не начинать лихорадочно вносить коррективы.
Скорее всего, наилучшие результаты будут получены, если вы потратите время на изучение того, на что нацелено новое обновление, чтобы вы могли проверить, почему ваш веб-сайт не соответствует этим требованиям.
Скорее всего, вам нужно всего лишь сделать несколько простых настроек, чтобы вернуться в игру.
Совет: Если сайт другой компании начинает опережать вас после обновления алгоритма, вы можете запустить анализ конкурентов , чтобы выяснить, почему это может быть.
ВыводАлгоритмы поисковых систем представляют собой сложную систему, помогающую пользователям находить наилучшие ответы на свои запросы.
Чтобы улучшить пользовательский опыт, поисковые системы регулярно меняют свои алгоритмы. Но изучение работы алгоритмов не так важно, как понимание того, чего хочет ваша целевая аудитория.
Повышая качество и релевантность содержимого целевой страницы, изучая вопросы, которые задает ваша аудитория, вы можете минимизировать свою зависимость от изменений алгоритма и в некоторой степени контролировать, насколько сильно они влияют на ваши инициативы.
Эта статья была обновлена и первоначально опубликована в ноябре 2020 года.
Как алгоритм поисковой системы Google ранжирует результаты?
Алгоритм поисковой системы Google является лидирующим на рынке способом поиска информации в Интернете. Этот запатентованный алгоритм является одной из основных причин, по которым Google поддерживает долю рынка более 92% по состоянию на февраль 2021 года. Чтобы занимать первые места на страницах результатов поисковых систем по релевантным запросам, владельцы сайтов должны иметь общее представление о том, как работает этот алгоритм.
работает.
Алгоритмы поисковой системы анализируют сайты и запросы
Поисковая система обеспечивает взаимосвязанные функции для веб-сайтов и пользователей. Поисковые роботы индексируют сайты, а алгоритм поисковой системы ранжирует проиндексированные сайты на основе собственной системы. Когда пользователь вводит поисковый запрос, алгоритм анализирует формулировку и контекст, чтобы предоставить результаты в виде веб-сайтов, которые содержат совпадающие ключевые слова и имеют самый высокий внутренний рейтинг.
Большинство пользователей не знают об алгоритмах поиска в Интернете, в том числе и о владельцах веб-сайтов. Веб-разработчики следуют рекомендациям, опубликованным Google, чтобы соответствовать меняющимся стандартам дизайна сайтов. Например, старая система PageRank остается фактором ранжирования сайтов даже при внедрении новых Core Web Vitals.
Поисковые роботы индексируют сайты для заполнения результатов поиска
Поисковые роботы — это боты, которые индексируют сайты в Интернете.
Веб-разработчики могут контролировать, какие страницы индексируются алгоритмом поисковой системы. В общем, информационные страницы должны быть проиндексированы, чтобы сайт отображался в результатах поиска по релевантным запросам. Другие типы страниц, например корзины, не индексируются.
А Агентство веб-дизайна может помочь малым предприятиям и другим владельцам веб-сайтов структурировать веб-сайты таким образом, чтобы обеспечить более полную индексацию. Поисковым роботам требуется некоторое время, чтобы снова проиндексировать сайт после отправки запроса, но оптимизированный и повторно проиндексированный сайт может быстро начать подниматься в поисковой выдаче. Всеобъемлющая организация сайта — это лишь верхушка айсберга, когда речь идет об оптимизации на странице.
Google учитывает более 200 факторов ранжирования сайта
Алгоритм поисковой системы Google учитывает сотни факторов или сигналов ранжирования. Некоторые из наиболее важных элементов включают плотность и приоритет ключевых слов на странице, а также время загрузки, надежность и оценку пользовательского опыта страницы.
Алгоритм также идентифицирует спам и отфильтровывает сайты, которые нарушают правила для веб-мастеров.
Владельцы малого бизнеса, которые создают свои собственные веб-сайты, часто не знают обо всех факторах, влияющих на создание сайта, который занимает первые места в результатах поиска по релевантным запросам. В результате сайты, сделанные своими руками, могут иметь не такой высокий рейтинг, как сайты, созданные или оптимизированные агентством веб-дизайна. Веб-сайты, которые загружаются быстро, содержат релевантный контент и имеют обратные ссылки и ссылки из надежных источников и на них, как правило, опережают конкурирующие сайты.
Алгоритм поисковой системы соответствует ключевым словам и контекстам
Одной из наиболее важных функций алгоритма является языковая модель поисковой системы. Результаты сопоставления предоставляются с сайтов с идеальной плотностью точных совпадений ключевых слов или ключевых фраз в содержании сайта. Ключевые слова уже давно являются важной частью органической поисковой оптимизации, а также служат основой для рекламы с оплатой за клик в поисковых системах.
Алгоритм Google не только находит точные совпадения ключевых слов или ключевых фраз в поисковом запросе, но и определяет синонимы. Система синонимов, на разработку которой ушло пять лет, определяет значение и контекст слов с несколькими определениями. Возможность определения синонимов улучшила результаты более чем в 30% поисковых запросов на разных языках. Алгоритм поисковой системы Google также учитывает своевременность результатов. Свежий контент, содержащий ключевые слова для поиска, скорее всего, будет иметь более высокий рейтинг, чем сайт с устаревшей информацией.
Страницы результатов поисковой системы Список сайтов на основе релевантности
Конечной целью алгоритма поисковой системы является предоставление релевантных результатов на основе пользовательских запросов. Исследования показывают, что большинство пользователей не выходят за пределы первых пяти списков в поисковой выдаче, а четверть пользователей просто нажимают на верхний результат поиска.
Веб-сайты, занимающие эти позиции, обычно предназначены для соответствия наиболее релевантным поисковым запросам и обеспечивают оптимальное взаимодействие с пользователем с максимально быстрым временем загрузки.
Фирма веб-дизайна может помочь малому бизнесу или любой другой организации создать высокорейтинговый веб-сайт или оптимизировать существующий сайт таким образом, чтобы повысить его рейтинг. Это хорошая идея, чтобы работать с веб-дизайном и Агентство цифрового маркетинга, специализирующееся на малом бизнесе. Эти эксперты могут помочь новым компаниям или компаниям с малоиспользуемыми сайтами конкурировать за первые места в органическом или платном поиске.
Этот базовый обзор дает малому бизнесу и другим владельцам веб-сайтов общее представление о том, как работает алгоритм поисковой системы Google. Fitz Designz — агентство веб-дизайна и маркетинга, расположенное в Санта-Розе, штат Калифорния, которое специализируется на повышении рейтинга сайтов в результатах поиска.
Свяжитесь с нами онлайн или позвоните по телефону (707) 241-3489чтобы узнать больше о SEO для любого веб-сайта.
Все, что когда-либо было сказано о кликах, CTR и показателе отказов
Поисковая система » Канал » SEO » Самая большая загадка алгоритма Google: Все, что когда-либо было сказано о кликах, CTR и показателе отказов
Это самая большая загадка и полемика Google Алгоритм ранжирования поиска. В течение долгого времени SEO-сообщество спорило: является ли показатель кликабельности («CTR») списков результатов поиска фактором ранжирования? Или тесно связанные «показатель отказов» и «время ожидания»?
Я представляю вам все, что Google когда-либо говорил об этом, а также некоторые наблюдения и мнения.
Клики, CTR, показатель отказов и время пребывания
Если вы новичок в поисковой оптимизации, понять, что клики или рейтинг кликов (CTR) являются факторами ранжирования, объяснить просто. После того, как пользователь выполнит поиск по ключевому слову, он может щелкнуть список на странице результатов поиска Google.
Google мог бы учитывать эти клики как своего рода голосование за содержание в результатах и предоставлять больше возможностей для ранжирования тем спискам, которые привлекают больше кликов по рассматриваемому ключевому слову.
Точно так же «время пребывания» будет подсчитывать, как долго пользователь остается на веб-странице после перехода на страницу из результатов поиска.
«Отказ» происходит, когда пользователь переходит на веб-страницу и покидает ее, не перейдя на другую страницу. Предполагается, что если отказ происходит слишком быстро, пользователь может счесть содержимое страницы неудовлетворительным для своего запроса.
«Время ожидания» также определяет, как долго пользователь может задерживаться на веб-странице, прежде чем щелкнуть в другом месте или вернуться к результатам поиска. Все эти сигналы связаны с переходом по ссылкам в результатах поиска.
Рейтинг кликов, или «CTR», является наиболее спорным и загадочным из «факторов ранжирования» Google.Загадка: являются ли CTR и показатель отказов факторами ранжирования?
Несмотря на то, что многие из моих коллег верят официальной версии Google о CTR или показателе отказов , а не , как факторах ранжирования, я признаюсь, что долго колебался в этом вопросе и часто подозревал, что это действительно может быть фактором ранжирования. В недавнем опросе, который я провел в Твиттере, CTR был признан самым спорным из всех факторов ранжирования.
Какой фактор ранжирования вы бы назвали самым спорным? Как в, это или не это? Не считая «Полезности» за это!
— Крис Сильвер Смит (@si1very), 29 августа 2022 г. Я сам работал в области поиска информации, и я знал и общался с рядом официальных евангелистов Google лично или через чаты, электронные письма и т. д. — и они всегда дают отличные советы, и все они кажутся очень честными и в целом хорошими людьми.Но…
…были такие моменты, когда что-то поднимается и застревает в рейтинге, что, кажется, не должно, исходя из всех известных нам классических факторов ранжирования.
Я долгое время работал в области управления репутацией в Интернете, где поисковая оптимизация активно используется для улучшения того, как человек или организация появляются в поиске, когда запрашивается их имя.
Были такие странные случаи, когда неприятная запись в блоге или статья с небольшим количеством внешних ссылок или без них внезапно всплывала в рейтинге — и просто оставалась.
Напротив, другой контент, который существует дольше и имеет более сильные ссылки, просто не может набрать обороты против предмета с неприятным граммом.
Вы не можете не заметить разницу, когда на сцене появляются эти предметы, наносящие ущерб репутации. Такие страницы часто имеют скандальные и интригующие заголовки, в то время как все остальные страницы о предмете имеют более нормальные, консервативные заголовки.
Когда вы ищете имя и видите какой-то заголовок, ссылающийся на него, а также слова «судебный процесс», «обвинение», «разоблачение», «арестован», «мошенничество» и т.
д., вам сразу становится любопытно, и вы захочет щелкнуть, чтобы услышать, что это такое.
Я иногда описывал это как «прогулку по информационной супермагистрали», потому что это похоже на то, как людей тянет замедлить ход и посмотреть, когда они видят ужасную аварию на дороге. Вы видите скандальный заголовок в результатах поиска, и вам хочется кликнуть по нему.
Часто кажется, что скандальные заголовки продолжают привлекать клики, и эта деятельность, кажется, помогает контенту занимать высокие места в рейтинге на странице 1 Google. клиент. Как только этот искусственный контент получает большую часть внимания, первоначальный негативный элемент начинает исчезать в результатах. Когда это произойдет, похоже виноваты клики пользователей .
Но является ли динамика случайной корреляцией? Или это именно то, чем, как кажется, может быть — результат, частично основанный на количестве относительных показателей CTR?
Получайте ежедневный информационный бюллетень, на который полагаются поисковые маркетологи.
Причины подозревать, что Google использует CTR в качестве фактора ранжирования
Помимо моих анекдотических примеров, есть ряд веских причин подозревать, что Google может использовать клики по ссылкам в результатах поиска в качестве фактора ранжирования. Вот некоторые из них:
1. Гугл уже давно отслеживает клики по своим ссылкам
Если это неиспользуемые данные, то зачем отслеживать клики? Я попытался вспомнить, когда впервые взглянул на HTML-результаты Google и увидел, что ссылки отслеживаются. Это может быть где-то в начале 2000-х.
Что они делают со всеми этими данными? После включения аналитики поиска в Инструменты Google для веб-мастеров (позже переименованные в Google Search Console) эти данные о кликах по крайней мере использовались в отчетах для веб-мастеров.
Но он был собран Google задолго до отчета по поисковой аналитике.
2. Google отслеживает клики по объявлениям
Данные о кликах влияют на рейтинг в разделе платных объявлений.
Так почему бы им не сделать то же самое с органикой?
Было бы неудивительно, если бы Google использовал тот же метод в органическом поиске, что и в платном поиске, потому что они, по сути, сделали это со своим показателем качества.
Более 15 лет назад Google ввел свой показатель качества, который влияет на ранжирование объявлений, и теперь есть достаточно доказательств того, что Google использует критерии качества в органическом ранжировании.
В то время как разные части Google, такие как поиск по ключевым словам и Карты, используют разные методы и критерии ранжирования, Google иногда использует методы перекрестного опыления.
3. Google сообщил в 2009 году, что клики по результатам поиска влияют на ранжирование в персонализированном поиске
Если он использовался или использовался в прошлом для результатов персонализированного поиска, он, очевидно, может использоваться и для обычных результатов.
4. Независимый исследователь изучил клики как фактор ранжирования и обнаружил, что это потенциально ценный метод
Доктор Торстен Йоахимс изучил клики как фактор ранжирования и обнаружил, что это потенциально ценный метод.
В частности, он обнаружил:
- «Теоретические результаты проверены в контролируемом эксперименте. Он показывает, что метод может эффективно адаптировать функцию поиска метапоисковика к конкретной группе пользователей, превосходя Google с точки зрения качества поиска. всего после пары сотен обучающих примеров».
Таким образом, в ходе ограниченного исследования было установлено, что он эффективен. Учитывая это, почему бы Google не использовать его? Конечно, его определения «превосходства Google» и определения полезности, вероятно, отличаются от критериев, используемых Google.
5. Bing использует клики и показатель отказов в качестве факторов ранжирования
Поисковая система Microsoft Bing подтвердила, что они используют клики и показатель отказов в качестве факторов ранжирования. Тем не менее, они упомянули о предостережениях по этому поводу, поэтому для оценки также используется некоторый другой контекст взаимодействия с пользователем.
Поисковые системы, безусловно, используют разные сигналы и методы для ранжирования контента в результатах поиска.
Но это интересный контрапункт риторике о том, что это «слишком шумный» сигнал, чтобы быть полезным. Если одна поисковая система может использовать сигнал, есть потенциал и для другой.
6. Если Google убеждает людей в том, что CTR не является фактором ранжирования, то он уменьшает поиск Google как цель для искусственной активности кликов
Это создает впечатление, что может быть существенный мотив для того, чтобы преуменьшать и отклонять клики как факторы ранжирования. . Параллелью с этим является функция автозаполнения, где поисковые запросы пользователей и, возможно, также активность кликов раньше были очень подвержены манипулированию ботами.
Компания Google долгое время не любила искусственную деятельность, такую как автоматические запросы, сделанные программным обеспечением для проверки рейтинга, и эволюционировала, чтобы обнаруживать и обесценивать такие действия.
Однако активность ботов в результатах поиска, нацеленная на повышение рейтинга за счет искусственных кликов, скорее всего, быстро станет более значительной, чем они уже обрабатывают.
Потенциально это может оказать негативное влияние на службы, аналогичное DDoS-атакам.
Несмотря на то, что годами утверждалось, что CTR не является фактором ранжирования, я видел много объявлений о вакансиях, размещенных с течением времени на платформах микрозадач, чтобы люди выполняли поиск по ключевым словам и нажимали на определенные списки. Заявления, возможно, не достигли сдерживания, и Google, возможно, уже эффективно игнорирует такие попытки манипулирования (или они, мы надеемся, скрывают некоторые из этих искусственных действий от данных Analytics).
7. Системы ИИ Google потенциально могут использовать CTR, и сотрудники Google не будут знать, влияет ли это на ранжирование и если да, то когда.
Три года назад, когда я писал о том, как Google может использовать машинное обучение для оценки качества веб-страниц, я настоятельно предположил, что пользовательские взаимодействия, такие как рейтинг кликов, могут быть включены в модели машинного обучения, созданные для системы оценки качества.
Один из аспектов этой идеи потенциально может реализоваться, в зависимости от того, как Google создаст свои системы машинного обучения. Все потенциальные точки данных о веб-сайтах и веб-страницах могут быть включены в алгоритм. Система может выбирать факторы ранжирования и взвешивать их в соответствии с оценкой результатов поиска человеческим оценщиком.
Обладая такой огромной вычислительной мощностью для оценки факторов ранжирования, алгоритм теоретически может решить, является ли CTR полезным предиктором качества для определенного типа веб-страницы и/или веб-сайта.
Это может создать модели ранжирования для многих тысяч различных комбинаций веб-страниц и поисковых запросов. В такой системе CTR может быть включен для ранжирования научных статей, но не для страниц продукта Виагры, например.
Тайна остается
Вы можете подумать, что этот третий пункт, по сути, установит рекорд, поскольку Google прямо указал фактор ранжирования для персонализации.
Но тайна и противоречия остаются, поскольку вопрос касается общего рейтинга в более широком смысле, помимо персонализированных результатов. Споры вокруг того, используется ли CTR в качестве основного сигнала ранжирования. Сообщение в блоге, раскрывающее клики как персонализированный фактор ранжирования, было из 2009 года, когда эффекты персонализации казались немного более явными в поиске.
Поскольку есть некоторые разумные основания полагать, что Google может использовать CTR в качестве фактора ранжирования в более широком смысле, помимо ограниченного влияния на персонализацию, это создает основу для многих SEO-специалистов, легко полагающих, что это действительно важный фактор ранжирования.
Конечно, одна из главных причин, по которой специалисты по поисковой оптимизации считают, что CTR является фактором ранжирования, заключается в том, что он, естественно, имеет высокую корреляцию с ранжированием.
Это высокотехнологичная версия извечного вопроса: что появилось раньше — курица или яйцо?
Ссылки на первой странице результатов поиска имеют подавляющее большинство кликов по любому заданному запросу, а на первой странице результатов поиска списки с более высоким рейтингом обычно получают больше кликов, чем с более низкими.
Это делает CTR привлекательным фактором ранжирования.
Очевидный вопрос: Является ли это случайной корреляцией или доказательством причинно-следственной связи?
Там, где причина и следствие так тесно переплетены, вероятность предвзятости подтверждения очень проста — вот почему нужно быть предельно осторожным.
Это приводит нас к тому, что Google неоднократно говорил о CTR как факторе ранжирования.
Все, что Google когда-либо говорил о CTR как факторе ранжирования
2008
Бывший сотрудник Google Мэтт Каттс прокомментировал, что показатель отказов не является фактором ранжирования, заявив, что он может быть спамным и шумным (это означает, что он будет содержать много нерелевантных данных). это бесполезно для ранжирования).
2009
В видеоролике Google Search Central Каттса спросили: «Полезны ли теги title и description для увеличения органического CTR — кликов, полученных в результате органического (неоплачиваемого) поиска, — что, в свою очередь, поможет повысить рейтинг с помощью персонализированного поиска.
перспектива?»
Он ответил только на часть вопроса, сказав, что «… так много людей думают о ранжировании и тут же останавливаются…», посоветовав человеку улучшить заголовок страницы, URL и текст сниппета, чтобы повысить CTR.
Он уклонился от ответа, может ли CTR повлиять на ранжирование. Конечно, этот вопрос был специфичен для персонализированного поиска.
Девять месяцев спустя Брайан Хорлинг, инженер-программист Google, и Мэтью Кулик, менеджер по продуктам Google, сообщили, что клики по объявлениям использовались для ранжирования в персонализированном поиске, как я отмечал выше.
2012
Документ FTC Google Probe (относительно антимонопольной оценки) просочился в Wall Street Journal.
В нем записано заявление бывшего руководителя отдела поиска Google Уди Манбера, в котором говорится:
- «На сам рейтинг влияют данные о кликах. Если мы обнаружим, что для определенного запроса, гипотетически, 80 процентов людей нажимают на результат № 2 и только 10 процентов нажимают на Результат № 1, через некоторое время мы выясняем, ну, наверное, Результат 2 — это то, что людям нужно. Так что мы его поменяем».
В документе также сообщается, что:
- «Показания Сергея Брина и Эрика Шмидта подтверждают, что данные о кликах важны для многих целей, в том числе, что наиболее важно, для предоставления «обратной связи» о том, предлагают ли поисковые алгоритмы Google своим пользователям высокое качество. полученные результаты.»
В этом документе отсутствует часть контекста, потому что сегмент о ранжировании и данных о кликах идет сразу после отсутствующей страницы — кажется, что все нечетные страницы документа отсутствуют.
Просоченный Google документ с рекомендациями по антимонопольному слушанию, FTCДэнни Салливан, бывший главный редактор Search Engine Land и нынешний координатор отдела поиска в Google, написал в Твиттере о ссылке просочившегося документа на ранжирование, на которое влияют данные о кликах, заявив:
Google подтверждает просмотр кликов для оценки качества результатов.
— Дэнни Салливан (@dannysullivan) 25 марта 2015 г.К вашему сведению, Google по-прежнему не сообщает, использовались ли клики в качестве сигнала ранжирования pic.twitter.com/jzNGc5reQk
🙂 нет ответа.»
Казалось загадочным, что Google так или иначе отказался отвечать, и некоторые интерпретировали это так, что они действительно использовали клики в качестве фактора ранжирования.
Или, возможно, причина в том, что клики используются только в определенных, ограниченных контекстах, а не в качестве общего фактора ранжирования.
2014
Рэнд Фишкин провел тест, просмотрев рейтинг одного из своих сообщений в блоге. Он призвал своих подписчиков в социальных сетях выполнить поиск, а затем нажать на список в результатах поиска. Листинг страницы поднялся на верхнюю позицию в рейтинге. Это стоит упомянуть на временной шкале, потому что гуглеры, похоже, были раздражены разрекламированным тестом Фишкина и его выводами.
Фишкин признал, что тест не исключил возможность того, что другие факторы ранжирования могли вызвать улучшение ранжирования, например, ссылки, созданные постами в социальных сетях.
Но последовательность событий показала, по-видимому, значительную корреляцию между кликами и изменением рейтинга.
В сообщении 2015 года на тему CTR как фактора ранжирования покойного Билла Славски с отзывами Фишкина было высказано предположение, что для листинга необходимо будет достичь некоторых пороговых значений кликов, прежде чем CTR начнет играть роль в ранжировании.
В блоге Славского рассматривается недавно выданный Google патент, в котором описывается «отзывы пользователей», которыми потенциально могут быть клики в результатах поиска, в качестве фактора ранжирования.
Патент звучал так: «Изменение ранжирования результатов поиска на основе временного элемента отзывов пользователей». Примечательно, что в описании патента конкретно упоминаются факторы, которые могут повлиять на появление материалов в поиске, такие как новизна и тенденции.
Одна из интерпретаций результатов теста Фишкина может заключаться в том, что такие элементы, как новостные статьи и сообщения в блогах, могут достигать более высокого, чем обычно, рейтинга после их введения в сочетании с данными о рейтинге кликов в рамках алгоритмов Google по свежести или новизне.
(Эрик Эндж выдвинул аналогичную теорию в своем блоге в 2016 году.)
Таким образом, темы, популярность которых резко возросла вскоре после появления, например сообщения в блогах и новостные статьи, могут в течение короткого времени отображаться выше в универсальном поиске. Однако такая ранжирующая способность может быть недолговечной и, возможно, не может считаться факторами ранжирования в широком смысле, влияющим на ранжирование при поиске по ключевым словам в долгосрочной перспективе.
2015
На конференции SMX Advanced Дженнифер Слегг сообщила, что Гэри Иллиес из Google заявил, что они «видят тех, кто пытается вызвать шум в кликах», и по этой причине они знают, что использование этих типов кликов для целей ранжирования не будь хорошим.
Это прямо говорит о том, что Google заявит, что не использует его, чтобы уменьшить вероятность того, что люди попытаются манипулировать сигналом.
Заявление здесь утверждает, что Google уже видит клики с искусственным влиянием в результатах поиска, и поскольку они уже видят такие кампании кликов, они не используют сигнал.
Далее Иллиес фактически подтвердил более раннее раскрытие информации 2009 года о том, что Google использует клики ограниченным образом, чтобы персонализировать ранее посещенные результаты поиска для отдельных лиц. Он также заявил, что клики в результатах поиска использовались для оценки, например, для проверки того, повлияли ли изменения алгоритма или изменения пользовательского интерфейса на общую полезность результатов поиска.
В видеовстрече Google Search Central Джон Мюллер утверждает, что рейтинг кликов используется для проверки алгоритмов на высоком уровне после внесения изменений, чтобы увидеть, находят ли люди то, что ищут.
- «Это то, что на очень агрегированном уровне имеет смысл для нас использовать, но на очень детальном уровне сайта или страницы это очень, очень шумный сигнал, поэтому я не думаю, что это действительно имеет смысл, поскольку что-то вроде фактора ранжирования».
Хотя формулировка заявления кажется немного двусмысленной, Мюллер, похоже, пытается убедить аудиторию в том, что Google не имеет смысла использовать этот сигнал, потому что он шумный.
Таким образом, никто не должен беспокоиться об этом как о факторе ранжирования.
Почти месяц спустя, в другой видеовстрече, Мюллер ссылается на «манипулирование CTR, манипулирование временем задержки», говоря, что «эти вещи могут даже не работать», что, опять же, немного двусмысленно.
Но гораздо позже, в 2015 году, Мюллер более определенно заявляет о показателе отказов:
- «Поэтому мы не используем ничего из Analytics в качестве фактора ранжирования в поиске. Так что с этой точки зрения это то, что вы можете пропустить. Иногда мы используем некоторую информацию о кликах из поиска, когда это происходит. к анализу алгоритмов. Поэтому, когда мы пытаемся выяснить, какой из этих алгоритмов работает лучше, какие из них вызывают проблемы, какие вызывают проблемы, какие вызывают улучшения в результатах поиска, мы должны изучить это. это не то, что вы увидите на каждом сайте или на каждой странице».
В конце 2015 года сотрудник Google опубликовал на справочных форумах Google Мой бизнес (с тех пор Google Мой бизнес был переименован в «Бизнес-профиль Google»), что одним из основных типов факторов, которые они используют для ранжирования списков местных компаний, является:
- «История поиска: сколько раз в прошлом на листинг нажимали пользователи, выполняющие поиск по ключевому слову.
»
Естественно, это вызвало некоторые комментарии и внимание. Google быстро отредактировал эту часть в течение нескольких дней после ее публикации, чтобы удалить упоминание о кликах, переформулировав ее следующим образом:
- «История поиска: сколько раз он был полезен в прошлом на основе релевантности, известности и удаленности».
Интересно, что в прошлом сотрудник Google сказал мне, что в местных списках в качестве фактора ранжирования используется «вовлеченность в список».
В результатах поиска на Картах Google или в тех же самых местных списках, встроенных в обычные результаты поиска по ключевым словам (Google извлекает списки местного поиска в результаты поиска по ключевым словам в универсальном поиске для соответствующих запросов), фактор участия в листинге представляет собой некоторую объединенную метрику всех взаимодействий с локальные списки, а не только клики по ссылке на веб-сайт.
Это может включать в себя клики, чтобы проложить маршрут, клики, чтобы позвонить по номеру телефона, клики, чтобы скопировать адрес, клики, чтобы поделиться листингом и т.
д. Мне сказали о листинге помолвки.
Как предположил Барри Шварц, последовательность событий подразумевала, что гуглер ошибся в том, что он написал, или случайно разместил точную информацию, которую Google не хочет, чтобы оптимизаторы знали.
Google не подтверждает и не опровергает, что клики являются фактором ранжирования. Опять же, в то время как Google может и делает перекрестное опыление некоторых методов из одной вертикали в другую, сообщение о факторе ранжирования было очень конкретно о ранжировании Карт и местных поисковых списков, а не об основном ранжировании веб-страниц.
2016
На конференции SMX в Сан-Хосе инженер Google Пол Хаар представил обзорную презентацию о том, как Google повышает свой поисковый рейтинг.
В презентации слайд-шоу два из его слайдов говорили об использовании статистики кликов для оценки изменений в алгоритме.
Во время тестирования обновлений алгоритма они обращают внимание на «изменения в шаблонах кликов», что в презентации содержало предостережение «Сложнее понять, чем можно было бы ожидать» (которое Хаар не упомянул устно).
Было ясно, что данные о кликах, как он их описал, использовались только для оценки изменений в алгоритме, а не в качестве основных сигналов ранжирования. Но некоторые участники использовали ссылки на клики в презентации как доказательство того, что Google использует CTR для ранжирования.
2018
Гэри Иллиес из Google провел AMA на Reddit, где Darth_Autocrat спросил его:
- «Rank Brain: многие люди продолжают говорить, что часть системы RB включает в себя сигналы UX, включая время пребывания, показатель отказов, показатель кликабельности. и т. д. Насколько я понял, RB пытался понять, какие результаты следует использовать для нераспознанных поисков. Не могли бы вы подтвердить/опровергнуть, использует ли RB какие-либо сигналы UX?»
Иллиес ответил:
- «Нет. RankBrain — это пиар-сексуальный компонент ранжирования на основе машинного обучения, который использует исторические данные поиска, чтобы предсказать, что пользователь, скорее всего, нажмет на ранее невиданный запрос.
инженерия, которая бесчисленное количество раз спасала наши задницы всякий раз, когда традиционные алгоритмы походили, например, «о, смотрите «не» в строке запроса! давайте проигнорируем это к черту!», но, как правило, он просто полагается на данные (иногда) месячной давности о том, что произошло на самой странице результатов, а не на целевой странице. Время ожидания, CTR, какая бы ни была новая теория Фишкина, это в общем выдуманная хрень. Поиск гораздо проще, чем люди думают».
Иллиес выразил некоторое явное раздражение по поводу предыдущих экспериментов / заявлений Фишкина о CTR как факторе ранжирования, отрицая сигналы пользовательского опыта («UX») как факторы ранжирования.
Резкое упоминание в адрес кого-то конкретного в моем опыте общения с типично вежливыми, дружелюбными и терпеливыми сотрудниками Google очень необычно, поэтому это осуждение привлекло много внимания.
Пылкость, характеристика CTR как «выдуманного дерьма» и возложение ответственности за CTR как теорию элементов рейтинга на ноги Фишкина казалась очень странно несоразмерной, особенно если добавить различную другую информацию о кликах как ранжировании.
-факторы, которые я привел здесь.
Итак, было ли раздражение Иллиеса вызвано тем, что ему приходилось постоянно отвечать на вопросы о фальшивом факторе ранжирования, или тем, что Фишкин продемонстрировал некоторые реальные эффекты, которые поставили под сомнение утверждение Google о том, что CTR не влияет на основной рейтинг?
2019
Тогдашний старший специалист по SEO в Moz Бритни Мюллер указала на документацию Google Cloud, из которой следует, что CTR является фактором ранжирования. В документе говорилось:
- «Когда вы нажимаете ссылку в поиске Google, Google учитывает ваш клик при ранжировании этого результата поиска в будущих запросах».
Однако Барри Шварц напомнил всем, что этот документ, по-видимому, цитирует сообщение в блоге 2009 года, в котором говорится, что клики использовались в персонализированном поиске.
2020
На слушаниях Антимонопольного подкомитета Палаты представителей США по изучению крупных технологических компаний Google предоставил очень интересный текст о том, как он использует «длинные клики» по сравнению с «короткими кликами» при определении:
- Пользователи, перешедшие по объявлению ссылки могли найти ценность на странице, связанной с объявлением.
- Изменения в представлении объявлений в результатах поиска могли негативно сказаться на качестве платного или органического контента или увеличить время, необходимое пользователям для нажатия на результаты поиска.
Текст, предоставленный Google, гласит:
- «Изменения в представлении поисковых объявлений тщательно тестируются по широкому кругу показателей, включая влияние на пользователей и рекламодателей. Например, предлагаемое изменение может привести к большему количеству «коротких кликов». » (когда пользователи быстро нажимают кнопку «Назад» в своем браузере, чтобы вернуться к поисковой выдаче Google) и меньше «длинных кликов» (когда пользователи остаются на целевой странице рекламодателя в течение относительно долгого времени, предполагая, что они нашли объявление и соответствующий веб-сайт полезными) ) Или предлагаемое изменение может повлиять на количество времени, которое требуется пользователям, чтобы решить, что щелкнуть (известное как «время до первого клика»), или неблагоприятно повлиять на компромисс качества между платным и органическим контентом (известное как «полное метрики страницы»)».
Многословие, включающее «короткие клики» и «долгие клики», является описанием показателя отказов и времени ожидания для рекламы. Отступление в скобках о том, как долго клики могут указывать на то, что пользователи сочли рекламу и соответствующий веб-сайт полезными, кажется немного неуместным в этом тексте, который в остальном является описанием того, как Google оценивает общие изменения, влияющие на страницу результатов поиска.
Что интересно, так это то, что Google, по-видимому, считает показатель отказов полезным в некоторых контекстах. Если это полезно для оценки эффективности объявления, почему бы не вывести его в результатах поиска?
Но также ясно, что это относится конкретно к оценке влияния общего представления результатов поиска и/или алгоритмических изменений — здесь не указано, что это влияет на ранжирование.
Следует также отметить, что это именно тот способ, которым Google заявил, что использует данные о кликах в результатах поиска — как средство оценки общего влияния изменений на результаты поиска.
В видео Google Search Central под названием «Google и сообщество SEO: разоблачение мифов о SEO» Шварц спросил Мартина Сплитта из Google о том, использовала ли поисковая система пользовательские данные из Chrome и Android, упомянув, как поисковая система Direct Hit много лет назад использовала данные о кликах. для рейтинга, и он был скомпрометирован людьми, нажимающими, чтобы манипулировать результатами.
Splitt ответил:
- «Это очень шумный источник данных. Он такой шумный… когда я говорю «нет, мы не используем его для ранжирования», я имею в виду именно это. И мы могли бы использовать это для A / B-тестирования различных способов представления вещей во внешнем интерфейсе, или мы можем использовать его, я не знаю, для чего Но люди, как правило, слышат только то, что они хотят услышать, и тогда вы искажаетесь , и тогда мы должны очистить это, а не делать другие хорошие вещи для сообщества».
2021
SEO-специалист написал в Твиттере вопрос Мюллеру, «Является ли CTR фактором ранжирования?»
Мюллер написал в Твиттере ответ:
- «Если бы CTR определял ранжирование в поиске, все результаты были бы наживкой.
Я не вижу, чтобы это происходило».
Итак, что можно сделать после изучения некоторых наиболее заметных упоминаний Google о CTR как факторе ранжирования с течением времени? Определенно, это фактор ранжирования или нет?
На самом деле нет никакой тайны в рейтинге кликов как в факторе ранжирования
Google был довольно последователен в своих сообщениях о том, как он использует клики в результатах поиска. Иногда язык неоднозначен там, где его быть не должно. В других случаях они не скоординировались в обмене сообщениями по этой теме.
Учитывая большой размер компании, относительно немногие сотрудники знают особенности системы ранжирования. Неудивительно, что вокруг этого произошли некоторые ляпы.
Но большая часть проблемы была вызвана некоторой степенью семантики и недопониманием того, что люди имеют в виду, когда обсуждают «факторы ранжирования». Оглядываясь назад, кажется совершенно очевидным, что, когда сотрудники Google говорят, что CTR не является фактором ранжирования, они имеют в виду, что это не «ключевой фактор ранжирования», применимый ко всем веб-страницам.
Это напоминает мне о том, как сотрудники Google Maps / Google Local заявляли, что «оценка отзывов не является фактором ранжирования». Но через несколько лет они отошли от этого языка.
Причина в том, что, хотя номера бизнес-рейтингов не помогают ранжированию списков в целом, существуют поисковые интерфейсы, в которых пользователям разрешено фильтровать результаты поиска на основе рейтингов, что фактически делает его фактором ранжирования в таких случаях.
К сожалению, CTR относится к той же категории: на самом деле является фактором ранжирования в некоторых ограниченных контекстах.
3 случая, когда клики, вероятно, являются факторами ранжирования в Google
1. Персонализированный поиск
Google записывает ваши исторические ключевые слова поиска и списки результатов, на которые вы нажимали.
Эта история поиска может привести к тому, что ранее посещенные страницы будут занимать более высокое место в результатах поиска по тому же ключевому слову в следующий раз.
Это подтверждает Google.
2. Последние и актуальные темы
Google может временно повысить рейтинг списков, когда наблюдается всплеск поисковых запросов и переходов на определенные веб-страницы. Однако следует отметить, что существует некоторая вероятность того, что сами по себе клики по объявлениям, вероятно, не являются единственным включенным сигналом.
Google может обнаружить рост упоминаний в социальных сетях и других источниках вместе с элементом. Исследования показали, что должен быть достигнут минимальный порог количества поисковых запросов и кликов, прежде чем произойдет повышение рейтинга. Кроме того, существует некоторая вероятность того, что преимущество ранжирования может испариться через некоторое время.
3. Локальный поиск и карты
Google ошибся, когда раскрыл это, а затем «исправил» свое заявление. Тем не менее, пересмотренный текст не устранил возможность использования листинга данных о взаимодействии, поскольку «количество раз, когда это было полезно в прошлом», будет оцениваться только на основе использования листинга.
Взаимодействие пользователей со списками компаний подтверждает интерес искателя после просмотра списка в результатах поиска.
Пользователи могут щелкнуть несколько потенциальных элементов в местных списках, в том числе щелкнуть, чтобы позвонить, проложить маршрут, сохранить список, поделиться списком, просмотреть фотографии и многое другое.
Использование кликов в локальных/картах, вероятно, менее шумно, так как интерфейсы могут быть менее подвержены активности ботов. Может оказаться невозможным иметь дешевую рабочую силу для проведения мероприятий по взаимодействию с контекстуальными техническими факторами, подтверждающими реальное использование.
Данные CTR имеют значение
Выше приведены случаи, когда Google явно использует данные о кликах, чтобы повлиять на ранжирование. Они подтвердили первый случай, который может повлиять только на результаты поиска отдельных лиц.
Различные исследовательские случаи, например, проведенные Фишкиным, предполагают, что второй случай также имеет место, но он также довольно ограничен по масштабу.
Это также объясняет некоторые рейтинги контента, которые я случайно видел в случаях управления репутацией, связанных с новостными статьями или сообщениями в блогах, которые ранжируются по сравнению с более сильными материалами. Это не совсем точно, потому что некоторые из этих элементов могут быть ранжированы в большей степени из-за упоминаний, ссылок и упоминаний в социальных сетях.
Третий случай кажется весьма вероятным из-за последовательности, связанной с непреднамеренным раскрытием информации на форумах Google Business Profile. Это также подтверждается некоторыми неофициальными данными и отраслевым анализом данных об использовании.
По сравнению с более широким рейтингом всех веб-страниц, эти три случая, когда клики, вероятно, включаются, являются практически крайними случаями. Технически, эти процессы ранжирования не содержат данных о CTR как основном факторе ранжирования.
Я полагаю, что многочисленные сотрудники Google неизменно прямолинейно заявляли, что CTR не является основным фактором ранжирования.
Они обычно не используют его для определения рейтинга веб-страниц, но используют его в совокупности для оценки влияния изменений, внесенных в результаты поиска — либо изменений в пользовательском интерфейсе результатов, либо общего рейтинга.
Общее руководство Google по этому поводу довольно последовательно с течением времени отрицало CTR как основной фактор ранжирования.
Непоследовательность в терминологии сбивает с толку вопрос CTR как «фактора ранжирования». Тот факт, что CTR влияет на ранжирование страниц в персонализированном поиске, означает, что
CTR действительно является «фактором ранжирования», точка, точка.Это игра семантики, чтобы сказать, что это влияет на некоторые персонализированные рейтинги, но это не фактор ранжирования. Некоторые из факторов ранжирования Google зависят от контекста или относятся к конкретным темам или вертикалям поиска.
Алгоритм Google также представляет собой гибрид нескольких алгоритмов.
Например, для локального поиска рейтинг некоторых списков Карт дублируется в результатах поиска по ключевым словам. Для текущих тем событий некоторые рейтинги новостей включаются в результаты поиска по ключевым словам.
Скорее всего, факторы ранжирования, их взвешивание и алгоритмы оценки ранжирования со временем становятся все более индивидуализированными в зависимости от типов запросов, и это, вероятно, будет продолжаться.
Google решил не использовать CTR в качестве основного фактора ранжирования, потому что он подвержен манипуляциям с помощью ботов и дешевой рабочей силы.
Из-за этого они назвали сигнал слишком «шумным», и, возможно, также , потому что пользователи нажимают на страницы с разной скоростью и по разным причинам.
Но сотрудники Google говорят, что он был «шумным» в течение по крайней мере 14 лет, что теперь кажется странным.
Компания, которая так эффективно боролась с веб-спамом, не может отфильтровать влияние искусственных кликов?
Несколько лет назад один из ведущих специалистов по поисковой оптимизации в черной шляпе признался мне, что прекратил заниматься черной работой, потому что она становилась все труднее, и ему пришлось искать другие способы заработка.
Таким образом, Google не является легкой мишенью для искусственных манипуляций. На данный момент черная шляпа SEO нестабильна.
Google контролирует клики по объявлениям именно для такого типа мошеннических манипуляций. Итак, «шумное» оправдание кажется немного избитым, не так ли?
Однако я верю Мэтту Каттсу, Гэри Иллису, Джону Мюллеру и Мартину Сплитту, когда они говорят, что Google не использует его в качестве основного сигнала ранжирования.
Мюллер также правдоподобен в том, что Google не хотел бы, чтобы заголовки страниц стали ужасно привлекательными в ответ на раскрытие информации о том, что CTR может улучшить рейтинг.
Сигнал «шумный» не только из-за возможных искусственных манипуляций — он также шумный, потому что люди по-разному входят и выходят из списков результатов поиска.
Если пользователь нажимает на пять списков в поисковой выдаче, прежде чем выбрать одно, какой вывод?
Компания Google определила, что сигнал слишком размыт, чтобы быть полезным, за исключением некоторых особых случаев.
Некоторые никогда не убедятся, что CTR не является основным фактором ранжирования в Google. Это всегда будет в значительной степени коррелировать с ранжированием, которое будет неправильно истолковано как причина, а не как следствие.
Но все бывшие и нынешние сотрудники Google, которых я знал, были честны и давали хорошие советы. Почему многие из них не верят?
Попытки манипулировать CTR для повышения рейтинга противопоказаны. Три случая, когда CTR, вероятно, влияет на ранжирование, не являются очень хорошими целями для попыток манипулирования.
Что касается персонализации, CTR влияет только на ранжирование человека, который нажал на объявление.
Когда речь идет о новизне или популярных темах, весьма вероятно, что необходимо будет включить в смесь другие сигналы, такие как свежесть контента и шумиха в социальных сетях. Ажиотаж и вовлеченность, скорее всего, должны быть продолжены для поддержания рейтинга, плюс может быть ограничение по времени, как долго длится эффект.
В случае ранжирования в списках Local/Maps играть будет непросто — может ли бот запрашивать маршруты проезда и геопространственно следовать им до места? Используемые щелчки не являются изолированными сигналами в вакууме — вместе с ними сопровождаются вспомогательные действия, которые можно оценить в связи со щелчком.
Будет ли бот получать доступ к списку через мобильное приложение или звонить по телефону? Как правило, дешевая рабочая сила, оплачиваемая за клики по результатам поиска, часто может быть иностранной, и Google обнаруживает иностранных пользователей, проксированные IP-адреса и искусственные модели использования.
Я думаю, что сейчас Google следует изменить свои стандартные сообщения о CTR. Они должны сделать официальный документ о различных способах использования кликов в результатах поиска в качестве окончательного руководства по этому вопросу.
Возможно, более прозрачное раскрытие информации может уменьшить попытки искусственного влияния. Google может признать, что это влияет на персонализированный поиск и потенциально способствует последним/актуальным темам и спискам Карт.
Мнения, высказанные в этой статье, принадлежат приглашенному автору и не обязательно принадлежат Search Engine Land. Штатные авторы перечислены здесь.
Похожие статьи
Новинки в Search Engine Land
Об авторе
Что такое алгоритм поисковой системы?
Алгоритм поисковой системы является наиболее широко используемым методом поиска информации в Интернете. Одной из основных причин, по которым следуют поисковые системы, является доля рынка более 92 процентов по состоянию на февраль 2021 года из-за их собственного алгоритма. Владельцы сайтов должны иметь общее представление о том, как работает этот алгоритм, чтобы занимать первые места на страницах результатов поисковых систем по релевантным запросам.
Если вам интересно узнать больше об алгоритме поисковой системы и о том, как можно контролировать результаты поиска в Интернете, прочитайте эту статью, подготовленную для вас агентством SEO.
Содержание
Что такое алгоритм поисковой системы?
алгоритм поисковой системыАлгоритм поисковой системы — это сложный метод, который поисковые системы, такие как Google, Yahoo и Bing, используют для оценки важности веб-страницы. По данным исследовательской фирмы Netcraft, в Интернете насчитывается около 150 000 000 активных веб-сайтов. Без поисковых систем было бы невозможно определить, какие сайты заслуживают внимания пользователей, а какие — просто спам. Поисковые системы собирают много информации, что помогает им быстро решить, является ли сайт спамом или содержит полезную информацию. Поисковые системы награждают релевантные сайты высокими рейтингами, в то время как спам и нерелевантные сайты могут получить крайне низкие рейтинги.
Как работают поисковые системы?
Найти то, что вам нужно среди огромного количества информации, доступной в Интернете, было бы практически невозможно без руководства. Системы ранжирования Google предназначены именно для этого: сканируйте сотни миллиардов веб-страниц в нашем поисковом индексе за доли секунды, чтобы определить наиболее релевантные и полезные результаты и представить их таким образом, чтобы найти то, что вам нужно.
ищу простой.
Эти рейтинговые системы состоят из нескольких различных алгоритмов. Поисковые системы учитывают множество критериев, чтобы предоставить вам наиболее релевантную информацию, включая термины в вашем запросе, релевантность и удобство использования сайтов, опыт источников, а также ваше местоположение и настройки. Важность каждого аспекта меняется в зависимости от типа вашего запроса, например, при ответе на вопросы о текущих событиях важнее свежесть информации, чем при ответе на вопросы о словарных определениях.
У нас есть тщательная процедура, которая включает в себя как живые тесты, так и тысячи квалифицированных внешних оценщиков качества поиска со всего мира, чтобы помочь алгоритмам поиска гарантировать достижение высоких критериев релевантности и качества. Эти оценщики качества соответствуют строгим правилам, определяющим цели нашего алгоритма поиска, и открыты для общественности.
Как алгоритм контролирует результаты моего веб-поиска?
алгоритм поисковой системыпоисковые роботы, такие как Google или Duckduckgo, собирают информацию с сотен миллиардов веб-страниц и организуют ее в поисковом индексе перед поиском.
Алгоритм Google выполняет всю работу за вас, находя веб-страницы, содержащие искомые вами термины, и ранжируя их на основе многих параметров, включая количество раз, которое фразы встречаются на странице.
Страницы с более высоким рейтингом отображаются выше на странице результатов поисковой системы Google (SERP), подразумевая, что лучшие ссылки для вашего поискового запроса предположительно перечислены первыми.
Алгоритм поисковой системы можно разделить на пять основных элементов:
1- Сайты и запросы анализируются алгоритмами поисковой системы.
Поисковая система связывает веб-сайты и людей через взаимосвязанные службы. Поисковые роботы индексируют сайты, а для ранжирования проиндексированных сайтов в поисковых системах используется собственный механизм. Когда пользователь вводит поисковый запрос в поисковую систему, алгоритм оценивает фразу и контекст, чтобы предоставить результаты в виде веб-сайтов с соответствующими ключевыми словами и наивысшим внутренним рейтингом.
Большинство людей, включая владельцев веб-сайтов, не знают об алгоритмах поиска в Интернете. Чтобы соответствовать растущим требованиям к дизайну сайтов, веб-разработчики следуют рекомендациям Google. Даже когда будут приняты новые Core Web Vitals, существующий метод PageRank сохраняет компонент ранжирования страниц.
Поисковая система пытается выяснить, что вы ищете. Только таким образом можно получить соответствующие результаты. Поисковые системы, такие как Google, могут определить вашу цель, используя языковые модели, что позволяет им знать, что искать в своем индексе.
Например, наша система синонимов помогает Поиску понять, что вы имеете в виду, даже если слово имеет множество определений. Этой технологии потребовалось более пяти лет, чтобы создать и улучшить результаты поиска более чем в 30% случаев на разных языках. Это демонстрирует стремление Google предоставлять наилучшие и наиболее релевантные результаты9.0004
2- Соответствие вашему запросу
Первым шагом является анализ ключевых слов, но самое интересное начинается с соответствия вашему запросу.
поисковая система находит в Интернете страницы, соответствующие вашему запросу. Это достигается путем поиска в указателе ваших терминов и поиска веб-страниц, которые наиболее точно соответствуют искомой информации. Это достигается путем просмотра таких данных, как наличие термина в названиях или заголовках, а также частота его появления на странице.
Языковая модель поисковой системы является одной из наиболее важных функций алгоритма. Сайты с идеальной плотностью идеальных совпадений ключевых слов или ключевых фраз в содержании сайта предлагают результаты сопоставления. Ключевые слова долгое время были ключевым аспектом органической поисковой оптимизации, а также основой для поисковой рекламы с оплатой за клик 9.0004
Алгоритм поисковой системы ищет синонимы в дополнение к обнаружению точных совпадений ключевых слов в поисковом запросе. Алгоритм синонимов, разрабатываемый пять лет назад, распознает значение и контекст слов с различными определениями. Почти в 30% поисковых запросов на разных языках способность распознавать синонимы улучшила результаты.
Своевременность результатов также учитывается алгоритмом поисковой системы Google.
3- Page Ranking
Система PageRank, запатентованный автоматизированный механизм, который определяет, где каждый результат поиска отображается на странице возврата поисковой системы, вероятно, является наиболее важным аспектом алгоритма Google. Поскольку большинство людей обращают внимание на первые несколько результатов поиска, попадание в верхнюю часть списка обычно подразумевает больший трафик. Итак, как Google ранжирует результаты поисковой системы? Многие люди пытались вывести точную формулу, но Google держит официальный алгоритм в строжайшем секрете. Мы знаем следующее:
- Каждому результату поиска присваивается ранг или балл по PageRank. Чем выше оценка страницы, тем выше она будет отображаться в списке результатов поиска.
- Количество дополнительных веб-страниц, подключенных к целевой странице, влияет на оценку. Каждая ссылка — это голосование за цель.
- Причина в том, что на сайты с высококачественным материалом будут ссылаться чаще, чем на сайты с некачественной информацией.
- Все голоса не равны. Голоса с сайтов с высоким рейтингом более ценны, чем голоса с сайтов с низким рейтингом. На самом деле вы не можете улучшить рейтинг одной веб-страницы, создав несколько пустых веб-сайтов, ссылающихся на нее.
- Чем больше ссылок дает веб-сайт, тем меньше его влияние на процесс голосования. Другими словами, если веб-сайт с высоким рейтингом ссылается на сотни других страниц, каждый отдельный голос будет стоить меньше, чем если бы страница ссылалась только на несколько сайтов.
- Возраст ссылок, поступающих на сайт и с сайта, надежность доменного имени, способ и место появления ключевых слов на сайте, а также способ и место появления ключевых слов на сайте — все это аспекты, которые могут повлиять на оценку. Google склонен уважать сайты, которые существуют уже давно.
- Некоторые сообщают, что Google оценивает результаты поиска с помощью группы тестировщиков, которые вручную просматривают результаты, чтобы вручную выбрать лучшие ссылки.
Google опровергает это, утверждая, что, хотя он использует сеть людей для тестирования новых методов поиска, он не использует людей для фильтрации и ранжирования результатов поиска.
Стратегия Google эффективна. Поисковая система может удобно упорядочивать результаты, сосредоточив внимание на ссылках на веб-страницу и с нее. Хотя есть несколько тактик, которые веб-мастера могут использовать для повышения своего рейтинга в Google, лучший способ попасть в топ — это регулярно публиковать высококачественный контент, который побуждает других ссылаться на их сайты.
4- Важен контекст
Несмотря на то, что они ищут одни и те же термины, не все получают одинаковые результаты поиска. При получении результатов в игру вступает ряд критериев, таких как предыдущая история поиска, параметры поиска и местоположение.
Например, потребитель в Чикаго, который ищет «лучшие рестораны», получит другие результаты, чем потребитель в Лос-Анджелесе, который ищет тот же термин.
5- Предлагая наилучшие результаты
Конечная цель алгоритма поисковой системы — выдавать соответствующие результаты в зависимости от запросов пользователя. Согласно исследованиям, большинство пользователей не проходят дальше первых пяти позиций в поисковой выдаче, а четверть пользователей просто нажимают на первый результат поиска. Веб-сайты, достигшие такого рейтинга, часто создаются для соответствия наиболее релевантным поисковым запросам и обеспечивают идеальное взаимодействие с пользователем с минимально возможной скоростью загрузки.
Это суть работы поисковой системы. Google или любая другая поисковая система оценивает поисковые фразы, чтобы предоставить наиболее полезную информацию, прежде чем предоставлять какие-либо результаты (что происходит практически мгновенно).
То, как поисковая система обеспечивает наилучшие результаты сейчас, может отличаться от того, как это будет завтра (или в следующем году). Его алгоритмы постоянно обновляются.
Заключение
Вот и все.