Открытие алгоритмов Google: патенты поисковой системы

Google , SEO
955
С момента своего создания в 1998 году, Google неуклонно развивался, выйдя за рамки простого поисковика. Секрет успешного развития лежит в непрерывно развивающихся алгоритмах поисковой системы, большинство из которых уникальны и защищены патентами. Изучение касающихся работы поиска патентов Google - важная часть SEO образования. Наша команда постоянно изучает эти документы чтобы лучше продвигать сайты в Google.

Самые интересные патенты Google

1. PageRank – основной алгоритм ранжирования

PageRank является самым известным алгоритмом Google. Формализованный в патенте US6285999 в 2001 году, он изначально представлял собой метод, позволявший Google оценивать релевантность веб-страниц на основе количества и качества входящих в них ссылок. С тех пор Google неоднократно обновлял этот алгоритм, придавая большее значение релевантности и качеству контента.

2. Knowledge-Based Trust Score

Патент US9058392, оформленный в 2015 году, представляет собой стремление Google сформировать более точные и надежные результаты поиска. Это делается за счет учета "Trust Score", или "индекса доверия" сайта. Этот индекс измеряет точность информации, представленной на веб-странице, обеспечивая пользователей более достоверной информацией.

3. Hummingbird и вопросно-ответное обращение

Google Hummingbird, патентованный как US9269353B1, революционизировал подход к обработке запросов. Ранее поисковые запросы обрабатывались по словам или фразам, а Hummingbird обучил Google анализировать и понимать контекст целого запроса, оптимизируя его обработку.

4. RankBrain и обучение машин

RankBrain (US9275058B1), представленный в 2015 году, представляет собой систему обучения машин, к которой прибегает Google для обработки редких или уникальных запросов. Цель состояла в том, чтобы улучшить способность поисковой системы понимать эти запросы и предоставлять соответствующие им результаты.

5. BERT и глубокое понимание языка

Более новый алгоритм, BERT (Bidirectional Encoder Representations from Transformers), не патентован напрямую Google, но его использование в поисковой системе Google позволило значительно улучшить понимание естественного языка, учитывая контекст не только вокруг, но и внутри словосочетаний и предложений.

6. Системы и методы определения качества веб-страниц (US9123049B1)

Этот патент описывает методы и системы, которые используются Google для определения качества и полезности веб-страницы. Это охватывает важность и репутацию передающей ссылки на страницы и другую информацию для создания "карты качества" для сайта.

7. Ориентирование на контент для улучшения поиска (US9268765B1)

Направлен на улучшение качества результатов поиска путем анализа содержания веб-страниц. Этот патент описывает технологии для генерации и использования "печатей контента", представляющих собой контент и структурные характеристики веб-страницы.

8. Использование информации о домене в поисковом рейтинге (US9015140B1)

Этот патент описывает методы, используемые для учета информации о домене при определении рейтинга страницы в результатах поиска. Это может включать дату регистрации домена, продолжительность регистрации, информацию о хостинге и другие факторы.

9. Адаптивный индекс сниппетов (US9361498B1)

Этот патент описывает способ адаптации сниппетов, показываемых в результатах поиска, в зависимости от запроса. Сниппеты могут быть заполнены содержимым, проанализированным наиболее релевантным для поискового запроса.

10. Определение многозадачного поведения пользователя (US9501948B1)

Процесс, описанный в этом патенте, позволяет Google идентифицировать моменты, когда пользователь выполняет многозадачность на своем устройстве. Это позволяет более точно анализировать паттерны взаимодействия пользователя со своим устройством и информацию, искомую пользователем. Этот список выбранных патентов представляет лишь кончик айсберга в многоликом мире инноваций Google. Они свидетельствуют о неослабевающем стремлении компании к инновациям, обслуживанию пользователей и развитию технологий.

Алгоритмы Google

1. Panda – Качество контента

Panda был представлен в 2011 году в качестве обновления, направленного на борьбу с сайтами низкого качества и поисковыми спаммерами. Этот алгоритм оценивает содержание сайтов, отсеивает контент низкого качества или копированный контент, и позволяет высококачественным сайтам взойти на вершину SERP (поисковой выдачи).

2. Penguin – Оптимизация ссылочного профиля

В 2012 году Google представил Penguin, алгоритм, предназначенный для борьбы с искусственным увеличением рейтинга сайтов с помощью манипулирования ссылками. Если нарушения обнаружены, они могут привести к заметному снижению позиции сайта в результатах поиска.

3. Pigeon – Локальный поиск

Pigeon усиливает важность местоположения поисковика при представлении результатов поиска. Он помогает улучшить видимость местных компаний в результатах поиска и предоставляет пользователю более релевантные результаты на основе его географического положения.

4. Mobilegeddon – Мобильная оптимизация

Mobilegeddon, представленный в 2015 году, нацелен на обеспечение удобства использования мобильного интернета. Этот алгоритм награждает "мобильно-дружественные" сайты более высокими позициями в поисковой выдаче на мобильных устройствах.

5. Possum – Более обширная локализация

Possum, выпущенный в 2016 году, дополнил Pigeon, расширив радиус локального поиска и улучшив видимость компаний, расположенных за пределами городского центра.

6. Pirate — борьба с нарушениями авторских прав

Обновление Pirate, представленное в 2012 году, было специфическим ответом на нарастающую проблематическую тенденцию сайтов, нарушающих авторские права. Алгоритм старается "наказывать" сайты, получающие большое количество валидных жалоб на нарушение авторских прав, занижая их ранг в результатах поиска.

7. TLS/SSL – безопасность и конфиденциальность

В 2014 году Google объявил о том, что сайты, использующие зашифрованные HTTPS соединения, будут получать небольшой бонус в рейтинге. Это было сделано, чтобы обеспечить защиту и приватность пользователей, ведь TLS/SSL шифрует данные, передаваемые между пользователями и сайтами, обеспечивая безопасность персональной информации.

8. Fred – качество и релевантность

Fred, обновление 2017 года, фокусируется на наказании сайтов, которые нарушают руководящие принципы веб-мастера Google. В частности, он направлен на сайты с низким качеством контента, который создан исключительно для генерации рекламного дохода, а не для предоставления полезной и релевантной информации пользователям.

9. Medic – центрирование пользователей с важной информацией

Medic Update, представленный в 2018 году, затронул в основном сайты медицинской и оздоровительной направленности. Однако, он также влияет на сайты с широким диапазоном тематик, которые предоставляют "текущие события, советы и руководства". Обновление направлено на повышение качества и авторитетности контента, особенно для сайтов, которые обсуждают темы, влияющие на здоровье и благополучие пользователей. Все эти алгоритмы вместе работают над созданием более безопасного, релевантного и полезного интернет-опыта для каждого пользователя, делая Google еще более эффективным навигатором в море информации.
Еще больше полезного на нашем YouTube-канале
Подписаться
Читайте нашу книгу «Digital-маркетинг массового поражения. От основ до практических кейсов»