Тем

Алгоритмы поисковых систем: Алгоритм работы поисковых систем — Artjoker

27.07.1984

Содержание

Алгоритм — это, поисковые алгоритмы (ПС)

Оглавление

  1. Алгоритмы Google
  2. Алгоритмы Яндекса
  3. Характеристика

Алгоритмы ПС (поисковые системы) — математические формулы, которые определяют позиции сайтов в результатах выдачи.

На основании ключевых слов поисковые машины определяют сайты наиболее релевантные введенному поисковому запросу. Согласно алгоритму, поисковик анализирует содержимое сайта, находит ключевую фразу из запроса пользователя и делает вывод о том, какую позицию сайту присудить.

У каждой поисковой машины есть свои собственные алгоритмы, которые базируются на общих принципах работы алгоритмов.  

Алгоритмы Google

Впервые об алгоритмах заговорили, когда Google обзавелся своим собственным поисковым механизмом (Индекс Цитирования). ИЦ был разработан для присвоения позиций страницам сайтов в зависимости от количества и качества внешних ссылок. Таким образом, появился некий стандарт определения релевантности интернет-ресурсов в результатах поиска. Такая технология принесла успех, что обеспечило Google высокую популярность.

Первоначально главным фактором, который Google учитывал при ранжировании сайтов, считался PR, однако не обделял он вниманием и внутреннее наполнение страниц интернет-ресурсов; вскоре в этот список факторов добавились региональность и актуальность данных.

В 2000г. для наилучшего вычисления PR Кришна Бхарат предложил алгоритм Hilltop. Со следующего года Google начал определять коммерческие и некоммерческие страницы, поэтому алгоритм изменили. В 2001г. был добавлен фактор, наделяющий ссылки с трастовых сайтов большим весом.

В 2003г. был разработан алгоритм «Флорида», который вызвал шквал негодования со стороны оптимизаторов. Он игнорировал популярные в то время методы продвижения и сайты с огромным количеством ключевых слов на страницах и с повторяющимися анкорами.

С 2006г. на вооружение был взят алгоритм израильского студента Ори Алона, «Орион», который учитывал качество индексируемых страниц.

В 2007г. был разработан алгоритм «Austin», сильно видоизменивший поисковую выдачу.

В 2009г. появился алгоритм «Caffeine», благодаря которому улучшился поиск Google, а проиндексированных страниц стало больше.

В 2011г. был выпущен новый алгоритм, «Panda», который дает более высокие позиции интернет-ресурсам с качественными текстовыми материалами на страницах.

Алгоритмы Яндекса

Летом в июле 2007г. Яндекс официально заявил о том, что механизмы ранжирования подвержены изменениям. Первым алгоритмом, о котором в 2008г. Яндекс упомянул в одном из своих интервью, был 8SP1, до этого алгоритмам не присваивали никаких имен, а внесенные в алгоритмы изменения оптимизаторы могли определить только методом проб и ошибок.

16 мая 2008г. появился новый алгоритм «Магадан», который располагал таким возможностями, как переработка транслитераций и аббревиатур.

В этом же году был разработан алгоритм «Находка», с его релизом в выдаче стали появляться информационные сайты, как например, Википедия. 

Алгоритм «Арзамас», или «Анадырь»(10 апреля 2009г.), положительно повлиял только на региональное продвижение, также были разработаны фильтры для сайтов со всплывающими баннерами (попандеры и кликандеры).

В этом же году в ноябре Яндекс представил алгоритм «Снежинск», в котором ввел в обращение метод машинного обучения, «Матрикснет». Поскольку были введены новые параметры ранжирования, технология продвижения усложнилась: пришлось оптимизировать сайты комплексно. 

Официальный релиз «Конаково» состоялся в декабре 2009г. , по сути, это была обновленная версия «Снежинска». Благодаря «Конаково» сайты стали ранжироваться по 19 регионам и по 1250 городам России.

 В сентябре 2010г. вышел «Обнинск», который комплексно оценивал текстовое содержание сайтов и лучше определял авторство текстовых материалов. Большое количество ключевых слов расценивалось как спам и наказывалось фильтрами. Искусственные ссылки перестали оказывать сильное воздействие на ранжирование сайтов. Продукты копирайтинга стали пользоваться большим спросом.

Декабрь 2010 г. был ознаменован появлением алгоритма «Краснодар», для которого была внедрена специальная технология «Спектр». Яндекс повысил качество поисковой выдачи, научившись разделять запросы на объекты (например, имена, модели) и систематизировать их (техника, лекарства и т.д.). Оптимизаторы стали принимать к сведению поведенческие факторы.

Релиз алгоритма «Рейкьявик» состоятся 17 августа 2011г., он был направлен на улучшение поиска при работе с англоязычными запросами.

Характеристика

Раньше поисковые системы находили всю необходимую информацию, обработав некоторые показатели сайтов, например, заголовки, количество контента, ключевики. Но стремительно развивающаяся оптимизация и появление огромного количества спамных сайтов препятствовали такой работе и вынуждали поисковые системы совершенствовать свои алгоритмы, чтобы игнорировать «плохие», по их мнению, сайты. Таким образом, обновление алгоритмов — это реакция на появление новых методов продвижения.

Поисковые алгоритмы системы Google – более 200 факторов ранжирования в Labrika

Апрель 28, 2020

Google Основы SEO Алгоритмы

Алгоритм поисковой системы — это формула, по которой она находит и ранжирует релевантные ответы на конкретный запрос пользователя.

Работа поискового алгоритма основана на анализе множества факторов, показывающих ценность веб-ресурсов и их содержимого для пользователей.

Развитие факторов ранжирования Google

Первоначально главным фактором ранжирования сайтов в Google была релевантность контента страницы запросу пользователя, которая определялась по вхождениям слов из этого запроса в мета-теги и тексты, Кроме того, позиция страницы в результатах поиска зависела от количества ведущих на неё ссылок.

Сегодня для ранжирования документов в Google используется искусственный интеллект, подбирающий подходящий по смыслу документ даже при отсутствии в его заголовке ключевых слов из запроса.

Поисковая выдача стала персонализированной и зависит теперь не только от качества, релевантности и авторитетности сайта и возраста домена, но и от местонахождения пользователя и его персональных интересов, а также от комплекса поведенческих факторов. Если, например, при переходе на страницу веб-ресурса посетители сразу же покидают его, то поисковая система расценивает такой сайт как неинтересный для интернет-сообщества и понижает его позиции в результатах поиска.

Появление огромного количества сайтов, в том числе спамных, использующих нечестные методы продвижения, вынуждало поисковые системы совершенствовать свои алгоритмы. Сейчас поисковый алгоритм Google включает примерно 200 факторов, которые влияют на ранжирование и продолжает регулярно обновляться.

Однако многие из этих изменений и связанные с ними факторы компания держит в секрете, чтобы избежать их использования для манипуляции результатами поиска. Публично объявляется только о наиболее значимых обновлениях алгоритма.

Хронология и особенности основных алгоритмов и обновлений Google

  1. Бостон — Февраль 2003

    https://moz.com/google-algorithm-change

    Первое официально объявленное изменение алгоритма Google. Обновления становятся ежемесячными. Изменения алгоритма в них сочетались с обновлениями индекса (так называемый «Google Dance»).

  2. Кассандра — Апрель 2003

    https://moz.com/google-algorithm-change

    Фильтруются сайты со скрытыми ссылками и текстами, со ссылками с сайтов-дорвеев, принадлежащих одному владельцу.

  3. Фриц — Июль 2003

    Explaining algorithm updates and data refreshes

    Обновление поисковой выдачи стало происходить не ежемесячно, а почти каждый день. В результате изменения стали не такими резкими.

  4. Дополнительный индекс («Supplemental Index») — Сентябрь 2003

    https://www. searchenginewatch.com/2003/09/02/search-engine-size-wars-googles-supplemental-results/

    Страницы, которые Google считал малоинформативными или дублирующими, заносились в дополнительный индекс. Позже от Supplemental Index отказались – он был интегрирован в основную базу.

  5. Флорида — Январь 2003

    What Happened To My Site On Google?

    Из выдачи отфильтрованы некачественные сайты, перенасыщенные ключевыми словами, неуникальным контентом, покупными внешними ссылками. Считается, что это обновление положило начало профессиональному SEO.

  6. Бренди — Февраль 2004

    https://www.sitepoint.com/brandy-google-update/

    Обновление включало масштабное расширение индекса, скрытое семантическое индексирование (LSI), учет релевантности анкорного текста и тематическую близость сайтов-доноров и акцепторов ссылок.

  7. Атрибут Nofollow — Январь 2005

    https://www.searchenginewatch. com/2005/01/18/google-yahoo-msn-unite-on-support-for-nofollow-attribute-for-links/

    Введение атрибута «nofollow» для закрытия от индексации спамных ссылок.

  8. Персонализация поиска — Июнь 2005

    https://googleblog.blogspot.com/2005/06/search-gets-personal.html

    Персонализация поисковой выдачи на основе истории запросов пользователя.

  9. Универсальный поиск — Май 2007

    Google Launches “Universal Search” & Blended Results

    Google добавляет в поисковую выдачу результаты из блоков новостей, видео, изображений, локального и других видов специализированного поиска.

  10. Google Suggest (Поисковые подсказки) — Август 2008

    Google.com Finally Gets Google Suggest Feature

    При вводе запроса в поисковую строку появляется список аналогичных фраз, использованных в поиске ранее.

  11. Кофеин — Июнь 2010

    https://googleblog.blogspot. com/2010/06/our-new-search-index-caffeine.html

    Новая система веб-индексации – не по слоям, а параллельно — по мере нахождения новых страниц или обновления информации на старых. Теперь свежие данные появляются в индексе гораздо быстрее.

  12. Панда (Фермер) — Февраль 2011

    https://www.wired.com/2011/03/the-panda-that-hates-farms/

    Пессимизация «ферм» контента, сайтов с неуникальным, бесполезным, некачественным содержимым Алгоритм несколько раз обновлялся, в 2016 г. включен в основную формулу ранжирования. Подробнее см. статью об алгоритме «Панда» в блоге «Лабрики».

  13. Top heavy (Макет страницы) — Январь 2012

    https://search.googleblog.com/2012/01/page-layout-algorithm-improvement.html

    Алгоритм понижает позиции ресурсов, на которых реклама занимает значительную часть страницы и затрудняет доступ к основному контенту.

  14. Венеция — Февраль 2012

    https://moz.com/blog/understand-and-rock-the-google-venice-update

    Учет местоположения пользователя — в разных регионах предоставляются различные результаты поиска по геозависимым запросам.

  15. Пингвин — Апрель 2012

    Google Launches “Penguin Update” Targeting Webspam In Search Results

    Пессимизация сайтов, использующих технологии веб-спама для манипуляции результатами поиска (массовая закупка ссылок, неестественные анкоры, переспам страниц ключевыми фразами и т. п.). После нескольких обновлений «Пингвин» стал частью основного поискового алгоритма Google. Подробнее об алгоритме «Пингвин» — см. в статье нашего блога.

  16. Граф знаний (Knowledge Graph) — Май 2012

    https://search.googleblog.com/2012/05/introducing-knowledge-graph-things-not.html

    Семантическая технология и база знаний, используемая для повышения качества поисковой выдачи. Граф знаний предоставляет структурированную и подробную информацию по теме запроса, которая дополняет список сайтов в результатах поиска. Теперь пользователи могут получать ответы на вопросы прямо на странице выдачи, не переходя на другие сайты.

  17. Пират (DMCA Penalty) — Август 2012

    https://searchengineland.

    com/dmca-requests-now-used-in-googles-ranking-algorithm-130118

    Понижение позиций сайтов, нарушающих авторские права. В октября 2014 г. Вышло обновление алгоритма — Pirate 2.0.

  18. Обновление EMD (Exact Match Domain) — Сентябрь 2012

    The EMD Update: Google Issues “Weather Report” Of Crack Down On Low Quality Exact Match Domains

    Обновление алгоритма, которое понижает рейтинг некачественных доменов с точным вхождением поискового запроса.

  19. Колибри (Hummingbird) — Август 2013

    FAQ: All About The New Google “Hummingbird” Algorithm

    Новый алгоритм позволил находить страницы по сложным многословным и «разговорным» запросам. Для этого использовалось понимание смысла и исследование конструкции запроса, определение местоположения пользователя и др.

  20. Голубь (Pigeon) — Август 2014

    Google “Pigeon” Updates Local Search Algorithm With Stronger Ties To Web Search Signal

    Корректировка локального поиска — по геозависимым запросам выше ранжируются ближайшие к пользователю результаты.

  21. Mobile-Friendly — Апрель 2015

    https://webmasters.googleblog.com/2015/02/finding-more-mobile-friendly-search.html

    Приоритет в мобильном поиске получают сайты, которые имеют версию, адаптированную для мобильных устройств.

  22. RankBrain — Октябрь 2015

    FAQ: All about the Google RankBrain algorithm

    Применение технологии машинного обучения для определения тематики запроса. RankBrain позволяет находить релевантные ответы по смыслу, даже без буквального совпадения ключевых слов в запросе и в документе.

  23. Обновление Cкорости (Speed Update) — Июль 2018

    https://webmasters.googleblog.com/2018/01/using-page-speed-in-mobile-search.html

    Скорость загрузки веб-страницы становится фактором ранжирования для мобильного поиска.

  24. «Медицинское» обновление (Medic Update) — Август 2018

    https://www.seroundtable.com/google-medic-update-26177. html

    Улучшение поиска по сайтам YMYL (your money or your life), т. е. касающихся вопросов здоровья, финансов или безопасности.

  25. Алгоритм BERT (Bidirectional Encoder Representations from Transformers) — Октябрь 2019

    https://blog.google/products/search/search-language-understanding-bert

Улучшение обработки запросов на естественном языке при помощи нейросетей. Теперь при определении смысла запроса учитывается контекст всего предложения, включая предлоги.

Подробнее об алгоритме BERT вы можете прочитать в статье нашего блога-руководства для SEO специалистов. Page Experience — 2021 Новый алгоритм дает оценку удобства использования и безопасности сайта для посетителей. Таким образом, пользовательский опыт и поведенческие факторы как никогда оказывают влияние на продвижение сайтов в данный момент.

7 советов, как писать и оформлять тексты с учетом SEO-оптимизации

Как преподнести написанную статью, чтобы пользователи прочитали ее до конца? Почему важно уделить особое внимание построению текста? Какие должны быть подзаголовки, ссылки и списки? Корреспондент Теплицы изучил вопрос и узнал у экспертов, что изменилось в подходе к текстовой оптимизации и как эффективнее всего оформить материал.

SEO-тексты – это такие статьи, которые обеспечивают сайту хорошую seo-оптимизацию, то есть продвижение в поисковых системах. Чтобы создать такой текст, нужно качественно его оформить. Ваш текст должен выглядеть простым и понятным для пользователя.

О тенденциях

По мнению руководителя SEO-направления агентства

Nimax Олега Белова, за пару последних лет подход к текстовой оптимизации изменился. Эксперт назвал основные тенденции:

1. Ужесточение и усовершенствование антиспам фильтров. По словам Олега Белова, Google использует алгоритм Panda, смысл которого в оценке качества контента. В марте 2017 года Яндекс запустил алгоритм «Баден-Баден». «Из анонсированных особенностей алгоритма наиболее важным видится угроза пессимизации всего сайта (понижение позиции сайта в выдаче поисковой системы. – Прим. ред.) за некачественный контент, а не отдельно взятых страниц или поисковых фраз», – отметил эксперт.

2. Усложнение подхода в оценке текстовой релевантности. Поисковые системы все больше руководствуются семантическим поиском. Пример тому алгоритмы «Палех» у Яндекса и RankBrain у Google.

«Общий смысл этих технологий – понять именно смысловое значение поисковой фразы (что пользователи подразумевают), а не просто поиск документов по наличию в них определенных слов». Олег Белов

3. Усложнение модели ранжирования. «Грубо говоря, если в ранжирующей формуле используется 100 факторов, то значение каждого фактора сильнее, чем в случае, когда этих факторов около 1000», – объяснил суть принципа Белов.

Еще по теме: Что такое поисковая оптимизация: структура и задачи SEO

4. Усиление хостовых факторов. Поисковики все больше учитывают качество сайта целиком, а не конкретные страницы. По словам Олега Белова, на крупных площадках, которые всесторонне прорабатывают семантику, стараются максимально охватить тематику или ассортимент, поисковый трафик больше. «Если речь идет об интернет-магазинах, – уточнил эксперт. – Хороший пример – засилье товарных агрегаторов в e-commerce (электронной коммерции)».

Для настройки текстовой оптимизации есть несколько общих принципов, которых стоит придерживаться.

7 правил оформления текстов

1. Разбивка на абзацы. Не пытайтесь заключить весь смысл вашей статьи в два-три абзаца. Разбивайте и структурируйте мысли. В идеале в одном абзаце должно быть от трех до семи строк. Такое построение текста не спугнет читателя.

2. Подзаголовки. В самом начале текста идет заголовок h2, а дальше подзаголовки уровня h3 и по необходимости h4, их в тексте может быть несколько. Открывая статью, читатель может просмотреть подзаголовки, оценить пользу статьи, а уже потом приступить к чтению. Именно подзаголовки упорядочивают повествование и помогают читателю ориентироваться в тексте. Другими словами, подзаголовки – это тезисное изложение сути вашего текста. Они удобны для распознавания поисковиками и для пользователей.

3. Поисковые фразы. Для продвижения вы должны выбрать ключевые слова. По мнению Олега Белова, важно, чтобы на одну страницу приходились запросы из одного кластера (совместимые по смыслу между собой). Эти запросы должны присутствовать в мета-тегах, а также в контенте страниц. C их употреблением не нужно перебарщивать. Например, использовать только три или четыре основных запроса на статью.

«Не стоит употреблять поисковые фразы в большом количестве, злоупотреблять форматированием и вставлять их во все заголовки второго и третьего уровня – все это осталось в далеком прошлом». Олег Белов

Список слов и фраз можно составить с помощью сервисов Google.Adwords и Яндекс.Вордстат. Предлагаем посмотреть видеоурок Теплицы о том, как проверить тематику будущей статьи с помощью подбора слов.

4. Ссылки. Если вы уже писали о какой-то теме ранее, не стоит пересказывать ее суть. Просто прикрепите гиперссылку и напишите, что читателю будет полезно увидеть еще один материал по теме. Такой инструмент оптимизации называется перелинковка. Переходя на другую страницу сайта, пользователь проводит на нем больше времени. А этот поведенческий фактор поисковики расценивают положительно при ранжировании материалов.

5. Списки. Один из отличных способов выстроить статью и передать важную мысль – использовать списки. Такой элемент разнообразит подачу материала, не сделает вашу статью монотонной.

6. Объем статьи. Олег Белов уверен, что дать общие рекомендации по количеству используемых слов в тексте невозможно. Такую задачу решают текстовые анализаторы, например, приложения MegaIndex или Just Magic. Цифры, полученные в ходе анализа, можно использовать для ориентира.

«Стоит не только обращать внимание на цифры, но всегда думать о качестве текста, о том, чем он будет полезен и интересен, о его добавочной ценности и о разнообразии типов контента, то есть не только текст». Олег Белов

7. Фото- и видеоконтент. Поисковики оценивают, какой тип контента есть в вашей статье, кроме текста. Внимательно подберайте главную иллюстрацию для статьи, которая будет дополнять материал. В целом изображение должно быть большим, но при этом не тяжелым, до 60 кб. Лучше использовать изображения с лицензией Creative Commons (то есть бесплатные), скриншоты или свои собственные фотоснимки. Заполните теги Title, Alt и подпись к картинке.

К размещению видеоконтента особых требований нет, вы можете просто взять ролик с Youtube.

Не забудьте проверить текст на орфографию и пунктуацию. Используйте для этого онлайн-сервисы ОрфограммкаОРФО Online или Text.ru.

Алгоритмы поиска Google 2022 — хронология

Мы уже рассказывали о том, как работают фильтры «Яндекс» и фильтры Google. Но кроме фильтров, в ранжировании участвуют и алгоритмы поисковых систем. Сегодня рассмотрим основные алгоритмы, которые не дают сайтам подняться в выдаче: как они работают и что нужно сделать, чтобы улучшить позиции.

Читайте также:

Действующие фильтры Google: проявление, диагностика и устранение причин

Как работают алгоритмы Google

В отличие от фильтров, алгоритмы не исключают страницы из выдачи, а снижают их позицию. Например, если сначала страница была на 5 месте, то с выходом нового алгоритма она попадает на 25-30 место и дальше. Поисковая система начала выпускать обновления алгоритмов ранжирования в 2003 году. Тогда вышел «Бостон» — первое официальное изменение ранжирования сайтов. Позже часть алгоритмов была отменена, а некоторые работают и до сих пор.

Принцип работы алгоритмов достаточно прост: сначала система сканирует и индексирует страницы, а затем отображает их в выдаче, учитывая персонализацию и релевантность. Поисковая система выделяет несколько ключевых факторов, от которых зависит результат поиска:

  • анализ слов и выражений, проверка орфографии, подбор синонимов;
  • подбор подходящих страниц с экспертным контентом;
  • ранжирование релевантных страниц — от более качественных к менее качественным;
  • показ наиболее подходящих результатов — формирование топа выдачи;
  • персонализация — анализ геолокации, социальных факторов, предыдущих запросов.

Интересный факт. Система Google хранит данные об интересах пользователей. Она формирует список тем на основании запросов и их контекста. Проверить свой портрет можно в сервисе «Настройка рекламных предпочтений».

Какие алгоритмы использует Google в ранжировании сайтов

Рассмотрим существующие алгоритмы ранжирования — все они влияют на выдачу, делая ее персонализированной и полностью отвечающей запросам пользователей.

Алгоритм Google YMYL (Your money — your life, E-A-T)

  • Год выпуска: 2018.
  • Что отслеживает: размещение экспертных материалов.

Этот алгоритм ориентирован на сайты с информацией, которая может повлиять на физическое или финансовое благополучие. Это следующие тематики:

  • медицина;
  • юридические услуги;
  • финансовые операции;
  • покупки;
  • официальные источники информации;
  • безопасность.

Контент, размещенный на таких сайтах, должен составляться на основании трех главных принципов: авторитетность, экспертность, добросовестность. Алгоритм направлен на устранение из выдачи тех сайтов, которые публикуют некачественную и недостоверную информацию, использование которой несет риски для жизни и благополучия. С его введением из индекса начали выпадать статьи с малополезными SEO-текстами, которые не проходят экспертизу перед публикацией.

Читайте также:

Что такое SEO-статья и как правильно писать SEO-тексты

За что можно получить ограничения:

  • отсутствие авторства статей;
  • нет экспертности в контенте;
  • неактуальное содержимое;
  • отсутствие документов, подтверждающих экспертность — дипломов, сертификатов, лицензий;
  • недостаточно качественные страницы.

Асессоры — специально обученные люди, которые помогают нейросети определять сайты с экспертным контентом. Стоит заранее позаботиться о том, чтобы заранее предоставить информацию о подтверждении экспертности.

Как привести сайт в соответствие алгоритму YMYL:

Нарушение Проверка и устранение Профилактика
Отсутствие авторства Проверить все публикации на указание авторов статей, обозначить их экспертность, дать ссылки на их социальные сети Сразу формировать карточки экспертов и использовать их при публикации материала
Неактуальное содержимое Регулярно обновлять и дополнять статьи, если появилась новая информация по теме публикации При создании контента проверять актуальность информации
Отсутствие подтверждающих документов Пройти по карточкам экспертов, проверить блоки «О нас» на наличие сертификатов и разрешающих документов Добавлять документы и лицензии при создании сайта

Hummingbird (Колибри)

  • Год выпуска: 2013.
  • Что отслеживает: соответствие ключевых фраз интенту пользователя.

«Колибри» — это часть алгоритма, которая помогает улучшить выдачу информативного контента. Она оценивает естественность вхождения ключевых фраз, находит перекосы по плотности текста, проверяет использование LSI (синонимов, подсветок и подсказок из выдачи). Если контент не соответствует теме, позиции сайта снизятся, а страницы могут получить пометку о малоценности.

Как привести сайт в соответствие алгоритму «Колибри»:

Нарушение Проверка и устранение Профилактика
Неестественный текст, который трудно читается Проанализировать контент на естественность. При необходимости заменить на контент с естественностью более 80% Проверять весь размещаемый контент на естественность. При сборе семантики использовать не только ключи, но и синонимы, подсветки, слова из правой колонки.

Pigeon (Голубь)

  • Год выпуска: 2014.
  • Что отслеживает: оптимизация местного поиска.

Этот алгоритм помогает региональным сайтам быть выше в выдаче, чем не имеющим географической привязки. Один из первых фильтров, который улучшил показатели ресурсов в выдаче, а не пессимизировал их. Изначально он использовался только в пределах США, затем начал применяться в отношении всех англоязычных ресурсов. Сейчас применяется в отношении всех сайтов, где есть региональность.

Как использовать:

  • заполнить карточку организации в Google Мой Бизнес;
  • сделать региональные контакты на сайте: городской номер, почтовый адрес;
  • использование локального контента — местное портфолио, отзывы;
  • использовать местные ссылки.

Читайте также:

Продвижение англоязычных сайтов

HTTPS

  • Год выпуска: 2014.
  • Что отслеживает: наличие SSL-сертификата на сайте.

В анонсе от 6 августа 2014 года представители Google официально объявили, что будут отдавать приоритет в выдаче тем сайтам, которые используют защищенное соединение. Это нужно не только ресурсам, которые собирают и передают личные данные — через формы обратной связи, телефоны и личный кабинет. Сайт, у которого нет SSL-сертификата, может получить отметку о том, что он может быть потенциально опасным, а это снизит количество переходов на ресурс.

Пример отметки о небезопасности сайта

Этот алгоритм не только искусственно снижает позиции сайта в выдаче — наличие окна из примера выше негативно влияет на поведенческие факторы. Пользователи просто закрывают вкладку и сразу возвращаются к поиску.

Как привести сайт в соответствие HTTPS:

Нарушение Проверка и устранение Профилактика
Отсутствие SSL-сертификата Проверить наличие через SSL-чекер Подключать сертификат сразу, как только сайт выходит в индексацию

Продвижение сайта в ТОП-10

  • Оплата по дням нахождения в ТОП
  • Подбираем запросы, которые приводят реальных покупателей!

Mobilegeddon (Mobile-Friendly)

  • Год выпуска: 2015.
  • Что отслеживает: адаптивность мобильной версии сайта.

С распространением мобильных устройств Google начал понижать в выдаче те сайты, у которых нет адаптированной мобильной версии. Здесь владельцы часто пытаются сэкономить на адаптивности, потому что нужно оптимизировать контент, а потому запускают отдельную мобильную версию сайта.

Такой подход не приветствуется ПС: придется делать дубли контента, а еще эти два сайта будут ранжироваться как отдельные. Поэтому сейчас лучше сразу адаптировать контент и проверять его отображение на мобильных устройствах.

Как привести сайт в соответствие алгоритма «Mobilegeddon»:

Нарушение Проверка и устранение Профилактика
Отсутствие адаптивной версии Оценка отображения мобильной версии — либо через консоль браузера или через GSC Сразу давать задание программисту на верстку адаптивной версии сайта

Читайте также:

Мобильные версии сайтов 2021: интересные тенденции и неожиданные выводы

RankBrain

  • Год выпуска: 2015.
  • Что отслеживает: соответствие контента запросу пользователя.

Этот алгоритм направлен на определение того, что имел в виду пользователь, если по запросу это не очевидно. Он оценивает качество контента на сайте и его соответствие. Под действием алгоритма сайт тоже теряет позиции в выдаче, а страницы могут быть отмечены как малоценные.

Как привести сайт в соответствие алгоритму «RankBrain»:

Нарушение Проверка и устранение Профилактика
Недостаточная глубина раскрытия тем на сайте Привлекать экспертов для проверки полноты и достоверности информации Привлекать экспертов к написанию статей до публикации. В текстах освещать темы наиболее полно и информативно

BERT

  • Год выпуска: 2019.
  • Что отслеживает: естественный язык в контенте и работа с контекстом сайта.

Это усовершенствованный аналог Rank Brain. Алгоритм затронул порядка 10 % сайтов. Он учится понимать язык так, как его понимают люди.

Представители Google назвали это обновление одним из самых масштабных за 5 лет. С его помощью ПС учится более глубоко понимать контекст запроса и соответствие контента на сайте.

Possum/Hawk

  • Год выпуска: 2016/2017.
  • Что отслеживает: спам в локальной выдаче.

В 2016 году Google начал исключать спам в локальной выдаче: он убирал из выдачи клоны компаний, а также пессимизировал расположенные в одном месте идентичные бизнесы.

Но возникла проблема: из индекса начали вылетать сайты организаций, которые располагаются по одному адресу. Тогда представители ПС анонсировали дополнение — Hawk, оно смягчило действие «Опоссума». В выдачу вернулись сайты организаций, расположенных по одному адресу.

Как использовать:

  • Максимально полно заполнить карточку организации в Google Мой Бизнес: адрес, телефоны, сайт, фотографии.

Строго говоря, это не нарушение, а просто часть алгоритма, которая помогает лучше ранжироваться по заданному региону.

Fred (Maccabees)

  • Год выпуска: 2017.
  • Что отслеживает: обилие рекламы, некачественные ссылки, аффилиат-сайты.

«Фред» — масштабное обновление алгоритма Google, которое затронуло сайты с большим количеством рекламы, аффилиат-сайты, а также ресурсы с обилием некачественных ссылок. В результате наложения снижаются позиции сразу всего сайта.

Читайте также:

Внешняя оптимизация сайта: как продвигать сайт с помощью сторонних ресурсов

Как привести сайт в соответствие алгоритму «Fred»:

Нарушение Проверка и устранение Профилактика
Много рекламы Проверить наличие рекламных блоков Уменьшить объемы и агрессивность рекламных объявлений
Аффилированность сайтов Провести проверку на аффилированность и попробовать продавать партнерские товары у себя, без перенаправления на другие сайты Заключить договор с партнерами и продавать их товары у себя
Много некачественных ссылок с сайта Проверить ссылки через Screaming Frog и удалить ненужные Не использовать больше 5 ссылок на странице

Speed Update (Время загрузки)

  • Год выпуска: 2018.
  • Что отслеживает: скорость загрузки страниц.

Оптимизированные страницы начинают получать более высокие позиции в выдаче, чем страницы с большим объемом контента на странице. Долгая скорость загрузки сказывается на поведенческих факторах, и сайт начинает проседать по качеству.

Как привести сайт в соответствие алгоритму «Speed Update»:

Нарушение Проверка и устранение Профилактика
Долгая загрузка страниц С помощью инструмента Google Page Speed Insights проверить скорость загрузки и устранить основные причины: удалить неиспользуемые фрагменты кода, подключить использование кеша, оптимизировать изображения, etc. Проверять скорость загрузки сразу

Sandbox и DomainAge

Ограничение индексации для молодых доменов. Официально этот алгоритм не подтвержден представителями Google, но все же многие SEO-специалисты отмечали, что в первые полгода домен получает меньше трафика, чем дальше.

Бороться с «Песочницей» не стоит — лучше потратить это время на совершенствование контента, чтобы в дальнейшем получить более высокие позиции в выдаче.

Что проверить, чтобы не попасть под алгоритмы Google

  • Экспертность контента: наличие авторства, ссылок на соцсети авторов.
  • Актуальность текущей семантики.
  • Наличие слов из правой колонки и синонимов в семантике.
  • Региональность сайта — если продвигаетесь не в рамках всей страны.
  • Наличие SSL-сертификата.
  • Адаптивность мобильной версии.
  • Полное заполнение карточки организации в Google Мой бизнес.
  • Наличие и объем рекламных блоков на сайте.
  • Аффилированность сайта.
  • Качество ссылок на внешние ресурсы.
  • Скорость загрузки страницы.
  • Возраст домена.

Присоединяйтесь к нашему Telegram-каналу!

  • Теперь Вы можете читать последние новости из мира интернет-маркетинга в мессенджере Telegram на своём мобильном телефоне.
  • Для этого вам необходимо подписаться на наш канал.

Что такое поисковая система — определение, принцип работы алгоритмов Яндекс и Google

В статье разберем особенности процесса: как работает поисковая система, на каких принципах работы держатся алгоритмы ранжирования поисковика, как устроена выдача Яндекс и Google и для чего нужны все эти возможности в интернете.

  • Общие принципы обработки информации
    • Spider
    • Crawler
    • Indexer
    • Database
    • Search Engine Results Engine
    • Web server
  • Принципы работы поисковой системы
    • Сбор данных
    • Индексация
    • Обработка информации
    • Ранжирование
  • Основные характеристики поисковых систем
    • Полнота
    • Точность
    • Актуальность
    • Скорость поиска
    • Наглядность
  • Принцип работы поисковых систем
    • Google
    • Яндекс
  • Заключение

Общие принципы обработки информации

Несмотря на кажущуюся простоту  – «запрос-ответ», для формирования топа и его релевантности любой сервис производит сложный процесс взаимодействия различных составляющих.  

Spider

Он же «паук», который просматривает домены и дублирует содержимое на выделенные сервера, то есть «обходит паутину» для дальнейшего анализа вспомогательными программами. Он работает только с исходным кодом ресурса и документами формата html. 

Crawler

Проверяет все ссылки на сайте, что дает возможность составить древо, и находит точные адреса, которые будут отображаться в поисковой выдаче. Важно учитывать, что битые ссылки сильно осложняют работу программы и впустую расходуют краулинговый бюджет. 

Indexer

Алгоритм, который суммирует информацию от двух предыдущих и делит проиндексированные страницы по html-тегам, тем самым создавая список данных. 

Database

На основе индексации разделяет полученные данные на две самостоятельные базы:

  • Сведения, благодаря которым формируется рейтинг и определяется лист ключевиков, на которые поисковик будет выдавать ссылки.
  • Древо со всей метаинформацией. Оно будет применяться для последующих индексаций. Для того чтобы заново не проходить предыдущие этапы выполняется только сверка структуры, что дает возможность понять, происходили ли какие-либо правки на ресурсе.

Search Engine Results Engine

Программа, определяющая финальное ранжирование и релевантность выдачи при получении определенного запроса. Она определяет, какие из них будут показаны и в топ-10, и в топ-100.   

Web server

Сервер, на котором располагается сайт поисковика. Непосредственно с ним взаимодействует пользователь, вводя свой вопрос и получая информацию. 

Коммерческий трафик

от 35 600 ₽ Страница услуги

Продвижение по коммерческому трафику от студии SEMANTICA – привлечение целевых пользователей из систем Яндекс и Google. Мы работаем над внутренними и внешними факторами ранжирования и видимостью сайта в поисковиках. Вы получаете рост посещаемости и высокий охват среди своих потенциальных клиентов.

Принципы работы поисковой системы

Основными этапами формирования базы данных являются индексация и ранжирование. Чтобы человек получал максимально точный ответ на свой вопрос, алгоритмы Яндекса и Гугла сегодня активно используют методы машинного обучения. Благодаря способам противопоставления двух различных результатов и настройке схемы обработки, робот понимает, какая страница будет наиболее полезной. Это делает возможным вывод релевантности или рейтинга, который есть у каждого сайта после обхода поисковиком. Чем этот показатель выше, тем выше позиция ресурса в выдаче. Этот процесс также делится на несколько подпроцессов. 

Сбор данных

Как только появляется необходимость обхода, начинается автоматический анализ с использованием программ Spider и Crawler, которые собирают сведения и систематизируют их. 

Индексация

Производится регулярно с определенными интервалами. После нее ресурс попадает в базу поисковика. По окончании этого действия формируется файл индекса, который в дальнейшем применяется для оперативного нахождения конкретного материала на странице. 

Обработка информации

При поступлении запроса от пользователя производится его анализ и выделение ключевых слов, поиск которых проходит по файлам индекса. На основе этого определяются все результаты, похожие на изначальный. 

Ранжирование

Из полученных результатов формируется список от наибольшего к наименьшему совпадению. Также на этом этапе происходит вычисление релевантности для отображения.

В зависимости от используемой ПС, принцип отбора может варьироваться, но основные факторы таковы: 

  • соответствие текста интенту;
  • оптимизация;
  • авторитетность домена;
  • цитируемость;
  • похожий контент.

Что такое DDoS атака и как от нее защититься?

Что называется DDoS-атакой ДДоС атака — это вид киберпреступления, при котором на сайт поступает колоссальное количество трафика, нарушающее его работу и ограничивающее доступ к нему обычным пользователям.  О них впервые заговорили в 1999 году, когда сайты крупных западных компаний подверглись массовым нападениям.  Одна из самых известных и масштабных произошла в 2020 году и нацелена была на Amazon Web Services (AWS). Пиковый объем трафика составил 2,3 Тбит/с, несмотря на то, что DDoS атака на сайт была смягчена AWS Shield — сервисом…

Основные характеристики поисковых систем

С точки зрения рядового пользователя самая важная функция – получить ответ на вопрос. Но на самом деле у поисковика есть и другие важные критерии оценки контента.  

Полнота 

Условное соотношение числа ресурсов с прямым ответом на изначальный запрос от общего их количества в выдаче. Чем выше этот показатель, тем полнее анализ сервисом своих баз данных. 

Точность

Более конкретный показатель, который дает возможность показывать в топе не просто ресурсы с прямым вхождением ключа, но и понимание, что именно хочет увидеть пользователь. Так, например, вводя «купить машину», человек не хочет увидеть сайты, где автолюбители делятся впечатлениями от совершенных сделок. Ему интересны страницы салонов, который занимаются продажей авто. 

Актуальность

Как видно из названия, определяется тем, насколько актуальными будут полученные сведения, то есть сколько времени прошло с их размещения. Для большинства ПС этот период может составлять до трех месяцев, а для релевантных доменов два-три дня. 

Скорость поиска

Формируется из временного показателя, который требуется сервису для формирования списка поисковой выдачи, после получения запроса. Он напрямую зависит от вычислительных мощностей оборудования, которое используется для обработки данных, но также может меняться исходя из общего объема получаемой информации. Из-за чего его часто называют «стрессоустойчивость» или «готовность к нагрузкам». Для больших поисковиков скорость обработки может достигать ста миллионов в секунду. 

Наглядность

Клиентская оценка, которая формируется на основании того, насколько точные сведения попадают в топ 10. Так как не увидев прямого ответа на первой странице, как правило, принимается решение воспользоваться другим сервисом. 

Продвижение блога

от 46 200 ₽ Страница услуги

Продвижение блога от студии SEMANTICA — увеличение потока пользователей на сайт и повышение экспертности бренда в глазах целевой аудитории. Мы создаем востребованный контент, отвечающий на запросы потенциальных клиентов, оптимизируем статьи и настраиваем коммерческие триггеры. Вы получаете ощутимый прирост переходов в каталог товаров и услуг из блогового раздела.

Принцип работы поисковых систем

Самыми популярными для продвижения в Российском сегменте являются Гугл и Yandex. Далее разберемся, что учитывается при ранжировании в этих ПС. 

Google

Данные получаются из различных типов контента, например, тексты статей, музыка, видео, карты и справочники. 

В этом процессе можно выделить три основных этапа: 

  • Сканирование. Роботы производят сбор сведений со страниц и файлов. За каждый тип информации отвечает отдельный бот. Для сканирования применяется Googlebot, для ранжирования PageRank, мобильная версия проверяется Mobile, а Image предназначен для поиска изображений. Также в процессе определяются дубли. Для упрощения работы краулерам, необходимо, чтобы у ресурса была карта-сайта (Sitemap).
  • Индексирование. После сбора происходит обработка полученных данных.
  • Показ результатов в ответ на запрос.

Помимо перечисленного, на место домена в SERP влияет еще и следующие факторы: 

  • E-A-T;

Введен, дабы избежать распространения фейков из источников, на первый взгляд, кажущихся авторитетными. Применяется к статьям на медицинские и научные тематики, которые могут напрямую повлиять на жизнь и здоровье людей. Теперь весь контент, претендующий на звание экспертного, обязан соответствовать трем основным требованиям: компетентность, авторитет, достоверность. Это значит, что такого рода информация должна быть написана от лица специалистов в области, имеющих официальное подтверждение в виде дипломов и сертификатов.

  • опыт пользователя;

Результат взаимодействия человека с сайтом. Складывается из удобного дизайна, времени ожидания, адаптивности под различные виды устройств. 

  • Mobile-Friendly;

Сюда относятся такие показатели как: ширина контента на экране смартфона, размер шрифта и расположение интерактивных элементов.

  • ПФ;

Поведенческие факторы – это взаимосвязь действий пользователя с характеристиками сайта. Сюда относятся взаимодействия со страницей, отказы, глубина просмотра.  

  • скорость загрузки.

Сейчас один из главных показателей у Гугла, определяющий качество ресурса. Оптимальное время должно составлять не более 2-х секунд, вне зависимости от устройства. Недавно сюда добавился такой пункт как Core Web Vitals. CWV демонстрирует, насколько в целом домен оптимизирован для взаимодействия, а не только как быстро он открывается. 

Яндекс

За релевантную выдачу здесь отвечает алгоритм YATI. Он достаточно молодой, так как был запущен только в 2020 году. Принцип его работы базируется на машинном обучении, а основной его задачей было улучшение ответов и голосового поиска. 

С ним пришли и новые требования к ресурсам, желающих занять свое место в SERP:

  • Больше внимания рекомендуется удалить «длиннохвостым» и низкочастотным запросам, а также использованию синонимов. Это поможет давать более точные ответы на поставленные вопросы.
  • Высокое качество контента. Малоинформативные и мусорные страницы будут удаляться.
  • Представление материалов в формате лонгридов.
  • Естественность ПФ. Yandex блокирует домены, замеченные в накрутке поведенческих факторов. Чтобы в этому не прибегать, найдите, чем заинтересовать свою целевую аудиторию.

Доступность сайта: что такое и как проверить

В этой статье расскажем, как проверить доступность сайта и на что обратить внимание.  Почему важно отслеживать изменения и доступность сайтов Отслеживание работы сайта — такой же важный аспект в продвижении, как и его оптимизация. Если ваш сайт долго загружается, при подключении возникает ошибка безопасности или домен сайта становится недоступен, онлайн-продаж и заявок с сайта ждать не стоит. Когда сайт недоступен для пользователей, он недоступен и для поисковых ботов. Боты не проиндексируют сайт, если сервер недоступен или срок действия домена или…

Заключение

Сегодня мы получили определение, что такое алгоритмы поисковых систем, какое они имеют значение и зачем нужно применяться различные способы оптимизации для попадания в ТОП.  

Алгоритмы ранжирования поисковых систем

Алгоритм ранжирования – это так называемая сортировка сайтов в выдаче, которая меняется в процессе функционирования той или иной поисковой системы. Существует большое количество факторов, согласно которым происходит ранжирование: рейтинг веб-ресурса, соответствие текста поисковым запросам, объём и качество ссылочной массы.

Сегодня ранжирование интернет-ресурсов основывается на полезности сайта. Для того, чтобы вас заметили поисковики, нельзя обходиться одними seo-приемами (прописывание мета-тегов, внутренней перелинковки, заголовков), уникализированием контента и подписей к изображениям. Очень важно учитывать и поведенческий фактор, т.е. насколько сайт интересен пользователям: глубина просмотра, время, которое пользователи провели на веб-ресурсе, показатели отказов и другие данные из аналитики.

Алгоритмы ранжирования интернет-ресурсов меняются в процессе модернизации поисковых систем и интернета в целом. При улучшении алгоритмов берется во внимание контент, авторитетность, а также внешние и внутренние факторы ранжирования.

Внутренние факторы ранжирования:

  • Контент.
  • Полезный и качественный контент – это важнейший фактор ранжирования. Бывает так, что оптимизаторы в погоне за 100% уникальностью текста, забывают о его читабельности и релевантности. Либо не берут во внимание то, как важна актуальность публикуемых материалов.

  • Мета-теги.
  • Важно, чтобы поисковые роботы видели, что мета-теги страницы соответствуют ее наполнению.

  • Заголовки и выделение жирным шрифтом.
  • Для того, чтобы поисковики вознаградили вас высокой позицией, важно учитывать простые правила: самый важный заголовок с темой статьи выделяем тегами; заголовки более низкого порядка – тегами h3, h4 и т.п., ключевые термины и акценты – жирным шрифтом. Важно помнить, что усердствовать с выделением слов с помощью жирного шрифта не стоит.

  • Общая структура, навигация и внутренняя перелинковка.
  • Четкая структура сайта – еще один приоритетный момент. А внутренняя перелинковка поможет повысить ранг молодого ресурса. Суть линковки – в связывании внутренних страниц сайта ссылками друг на друга, что поможет нарастить вес каждой из них.

  • Внешние ссылки на сторонние интернет-ресурсы.
  • Присутствие на веб-сайте нетематических ссылок на сторонние ресурсы способно понизить позиции в поисковиках. Огромный поток рекламы может себе позволить только сайт с большим весом, а молодым неавторитетным ресурсам такие эксперименты опасны.

Внешние факторы ранжирования:

  • Внешние ссылки на сайт.
  • Важно и количество ссылок, и их качество. Благодаря ссылке сайту-акцептору передается от сайта-донора часть веса, т.е. передается тИЦ и PR. Также большое значение играет и релевантность анкоров продвигаемым ключевым запросам.

  • Присутствие интернет-ресурса в авторитетных каталогах.
  • Например, Яндекс.Каталоге. Это также даст положительный эффект при ранжировании. Ранее вес сайту могла принести регистрация в DMOZ-каталоге, однако в марте 2017 года интернет-каталог был закрыт и больше не принимает сайты на добавление в реестр. Все уже занесенные в каталог сайты находятся по адресу — http://dmoztools.net/.

Дополнительные моменты:

  • Домен сайта – его возраст и положительная история.
  • Число переходов на веб-ресурс из поисковиков – кликабельность сниппета в поисковой выдаче.
  • Возраст сайта и домена – чем дольше и «чище» история сайта и домена, тем больше преимущество перед «новичками» в выдаче.

Еще на эту тему

Статьи из нашего блога

Как оценить и улучшить поведенческие факторы на своем сайте: чек-лист

15.10.2020 9168

Алгоритм Яндекса «Баден-Баден»: чем страшен и как снять

19.05.2020 4680

Алгоритм Яндекса «Минусинск». Причины, признаки и как не попасть под фильтр

Разбираемся в том, что такое алгоритм Яндекса «Минусинск», к…

25.06.2018 6628

Оставить заявку

Мы используем файлы cookie, чтобы вам было ещё удобнее пользоваться нашим сайтом.
Подробнее.

Что такое алгоритм поиска?