SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google оптимизирует вычисление PageRank, используя адаптивную сходимость и матричные операции

ADAPTIVE COMPUTATION OF RANKING (Адаптивное вычисление ранжирования)
  • US7028029B2
  • Google LLC
  • 2004-08-23
  • 2006-04-11
  • SERP
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Патент Google, описывающий технический метод повышения эффективности расчета итеративных алгоритмов ранжирования, таких как PageRank. Система использует тот факт, что ранги некоторых страниц стабилизируются (сходятся) быстрее, чем других. Определяя эти сошедшиеся ранги, система исключает их из активных вычислений на последующих итерациях, тем самым значительно сокращая общие вычислительные затраты.

Описание

Какую проблему решает

Патент решает проблему высокой вычислительной стоимости (computation cost) и значительного времени, требуемого для расчета ранжирования на основе ссылок (например, PageRank) для экстремально больших баз данных, таких как Всемирная паутина. Традиционные итеративные методы неэффективны, так как требуют обработки всех документов до тех пор, пока не сойдутся самые медленные из них.

Что запатентовано

Запатентован метод адаптивного вычисления значений ранжирования. Изобретение использует неравномерную скорость сходимости (стабилизации) рангов разных документов. Система динамически идентифицирует документы, чьи ранги уже сошлись, и модифицирует функцию ранжирования (ranking function), чтобы исключить эти документы из дальнейших активных итеративных расчетов, тем самым снижая вычислительную нагрузку.

Как это работает

Система начинает итеративное вычисление функции ранжирования (например, x(k)=Ax(k−1)x^{(k)}=Ax^{(k-1)}). Периодически (при достижении stability condition) она проверяет, какие ранги стабилизировались в пределах допустимого отклонения (tolerance). Эти узлы перемещаются в "набор сошедшихся узлов" (converged set). Функция ранжирования модифицируется для расчета значений только для "набора несошедшихся узлов" (non-converged set). При этом вклад сошедшихся узлов в несошедшиеся рассчитывается один раз за цикл как постоянный вектор (используя Matrix Partitioning), что оптимизирует вычисления.

Актуальность для SEO

Высокая (с точки зрения инфраструктуры). Эффективное вычисление глобальных сигналов ранжирования на огромных графах остается критически важной задачей для поисковых систем. Хотя конкретные алгоритмы ранжирования эволюционировали, базовые математические принципы оптимизации итеративных вычислений, описанные в патенте, сохраняют свою актуальность.

Важность для SEO

Патент имеет минимальное прямое влияние на SEO-стратегии (1/10 - Инфраструктура). Он описывает внутренний инфраструктурный процесс Google по оптимизации вычислений, а не новые сигналы ранжирования или методы оценки контента. Для SEO-специалистов он не предоставляет прямых рекомендаций по оптимизации сайтов. Его значение заключается в понимании того, как Google решает инженерные задачи для масштабирования расчета глобальных метрик, таких как PageRank.

Детальный разбор

Термины и определения

Ranking function (Функция ранжирования)
Математическая функция, используемая для итеративного вычисления ранга документов в связанной базе данных (например, PageRank). Часто представлена в матричной форме: x(k)=Ax(k−1)x^{(k)}=Ax^{(k-1)}.
Converged nodes/ranks (Сошедшиеся узлы/ранги)
Документы (узлы), чьи значения ранжирования стабилизировались в пределах заданного отклонения (tolerance) в течение последовательных итераций.
Non-converged nodes (Несошедшиеся узлы)
Документы, чьи значения ранжирования все еще значительно меняются между итерациями.
Stability condition (Условие стабильности)
Критерий для определения момента остановки цикла итераций и проверки сходимости. Например, завершение заданного числа итераций (упоминаются 5–15) или достижение определенного процента сошедшихся узлов (например, 25%).
Iteration tolerance (Допустимое отклонение итерации)
Заданный порог (например, от 0.00001 до 0.01). Если разница в ранге документа между итерациями меньше этого порога, ранг считается сошедшимся.
Matrix A (Матрица A)
Матрица, используемая в расчете ранжирования. Получена из транспонирования (T) модифицированной матрицы вероятностей переходов P: A=(c(P+D)+(1−c)E)TA = (c(P+D)+(1-c)E)^T. Где c - коэффициент связывания (coupling factor), D - обработка висячих узлов, E - вектор случайного перехода.
Matrix Partitioning (Разбиение матрицы)
Техника разделения матрицы A на подматрицы, соответствующие сошедшимся (C) и несошедшимся (N) узлам, для оптимизации вычислений.
Principal eigenvector (Главный собственный вектор)
Вектор финальных рангов, который является решением функции ранжирования, когда итеративный процесс достигает устойчивого состояния.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной метод оптимизации.

  1. Итеративное решение функции ранжирования до выполнения первого условия стабильности (first stability condition).
  2. Модификация функции ранжирования для снижения ее вычислительной стоимости.
  3. Решение модифицированной функции ранжирования до выполнения второго условия стабильности (second stability condition).
  4. Присвоение финальных рангов на основе полученного решения.

Защищается общая идея адаптивного процесса: остановка расчета, оптимизация функции и продолжение расчета с меньшей нагрузкой.

Claim 2 (Зависимый от 1): Уточняет механизм модификации.

Модификация основана на идентификации подмножества рангов документов, которые сошлись в пределах допустимого отклонения (tolerance).

Claim 3 (Зависимый от 2): Уточняет технику оптимизации.

Модификация включает удаление части функции ранжирования, соответствующей сошедшемуся подмножеству. Это означает прекращение расчета рангов, которые уже стабилизировались.

Claim 4 (Зависимый от 3): Уточняет альтернативную технику оптимизации.

Модификация включает изменение части функции ранжирования. Это относится к оптимизации через Matrix Partitioning, где влияние сошедшегося набора (C) на несошедшийся набор (N) предварительно рассчитывается как постоянный вектор (ACNxC(k)A_{CN}x_{C}^{(k)}), что снижает сложность итераций.

Claims 5, 6, 7, 8: Определяют, какими могут быть условия стабильности.

Условиями стабильности может быть завершение заданного числа итераций (Claims 5-7) или достижение определенного процента сошедшихся документов (Claim 8).

Claims 9, 10, 11: Описывают реализацию через матричные операции.

Определяют функцию ранжирования с использованием матрицы A. Оптимизация (модификация) включает удаление строк (Claim 9), столбцов (Claim 10) или и того, и другого (Claim 11) из матрицы A, соответствующих сошедшимся документам. Это детализирует реализацию Claim 3 в контексте матричной алгебры.

Где и как применяется

Изобретение применяется на этапах подготовки данных и офлайн-вычислений для оптимизации расчета глобальных метрик.

CRAWLING и INDEXING (Подготовка данных)
Граф ссылок (Link Map), полученный в результате сканирования и индексирования, является входной структурой данных.

INDEXING – Индексирование и извлечение признаков (Офлайн-вычисления)
Это основная фаза применения патента. Он используется при расчете глобальных сигналов ранжирования (таких как PageRank). Это выполняется компонентом Page Ranker(s) в бэкенд-системе поисковика (Search Engine Back End System).

RANKING (Использование результатов)
Выходные данные (Page Ranks) затем используются на этапе ранжирования в качестве одного из сигналов.

Входные данные:

  • Направленный граф связанных документов (Link Map(s)).
  • Параметры функции ранжирования (например, коэффициент затухания 'c').
  • Параметры оптимизации (stability conditions, iteration tolerance).

Выходные данные:

  • Набор значений ранжирования (Page Ranks) для всех документов в графе.

Ключевые технические особенности:

  • Адаптивная сходимость: Использование факта неравномерного распределения времени сходимости разных узлов (skewed distribution of convergence times).
  • Модификация матрицы (Matrix Partitioning): Оптимизация вычисления путем рассмотрения вклада сошедшихся узлов как постоянного вектора.

На что влияет

  • Этот патент является чисто вычислительным и инфраструктурным. Он не оказывает влияния на конкретные типы контента, запросы, форматы, ниши или языки. Он влияет только на эффективность (скорость и стоимость) расчета рангов для всех документов в базе данных.

Когда применяется

Алгоритм применяется на этапе пакетной обработки, когда Google рассчитывает или обновляет глобальные оценки ранжирования (например, PageRank).

  • Триггеры активации: Шаги оптимизации (проверка сходимости и модификация функции) запускаются при выполнении stability condition.
  • Условия стабильности (Пороговые значения): Завершение заданного числа итераций (например, каждые 5–15 итераций) или достижение определенной доли сошедшихся узлов (например, 25%).
  • Допустимое отклонение итерации: Заданное значение (например, от 0.00001 до 0.01), используемое для определения стабилизации ранга.

Пошаговый алгоритм

  1. Инициализация: Создание направленного графа. Ассоциация всех документов (узлов) с "набором несошедшихся узлов" (non-converged set).
  2. Проверка сходимости (Глобальная): Проверка, пуст ли набор несошедшихся узлов. Если да, вычисление завершено.
  3. Подготовка к циклу (Модификация функции): Если существуют сошедшиеся узлы (C), функция ранжирования модифицируется с использованием Matrix Partitioning. Вклад сошедшихся узлов в несошедшиеся (N) вычисляется один раз как постоянный вектор: ConstVector=ACNxC(k)ConstVector = A_{CN}x_{C}^{(k)}.
  4. Фаза итераций: Выполнение итераций функции ранжирования только для несошедшихся узлов (N), используя оптимизированную формулу: xN(k+1)=ANNxN(k)+ConstVectorx_{N}^{(k+1)} = A_{NN}x_{N}^{(k)} + ConstVector.
  5. Проверка условия стабильности: Определение, выполнено ли условие стабильности для текущего цикла (например, завершились ли 10 итераций?). Если нет, возврат к Шагу 4.
  6. Идентификация сходимости: Если условие стабильности выполнено, идентификация узлов в наборе несошедшихся узлов, чьи значения ранжирования стабилизировались в пределах заданного допустимого отклонения.
  7. Модификация набора: Перемещение вновь идентифицированных сошедшихся узлов из набора несошедшихся в набор сошедшихся узлов.
  8. Цикл: Возврат к Шагу 2.

Какие данные и как использует

Данные на входе

  • Ссылочные факторы: Весь механизм полагается исключительно на ссылочную структуру документов. Используется направленный граф для построения матрицы вероятностей переходов (P). Степень исхода (количество исходящих ссылок) страницы используется для расчета вероятностей.
  • Системные/Конфигурационные данные:
    • Damping/Coupling factor (c): Коэффициент затухания (или связывания), используемый в определении Матрицы A.
    • Random Jump data (E, D): Векторы, определяющие вероятность случайного перехода (E) и обработку висячих узлов (D). В патенте упоминается, что они могут быть равномерными или неуниформными (например, персонализированными).

В патенте не упоминается использование контентных, технических, поведенческих (кроме потенциальной персонализации в E/D), временных, структурных или мультимедийных факторов.

Какие метрики используются и как они считаются

  • Функция ранжирования: Итеративное матричное умножение (метод степенной итерации): x(k)=Ax(k−1)x^{(k)}=Ax^{(k-1)}.
  • Определение Матрицы A: A=(c(P+D)+(1−c)E)TA = (c(P+D)+(1-c)E)^T.
  • Метрика сходимости: Разница между x(k)x^{(k)} и x(k−1)x^{(k-1)} для конкретного узла.
  • Оптимизированное вычисление (Модифицированная функция ранжирования): Используется техника Matrix Partitioning. xN(k+1)=ANNxN(k)+ACNxC(k)x_{N}^{(k+1)} = A_{NN}x_{N}^{(k)} + A_{CN}x_{C}^{(k)}. Ключевая оптимизация заключается в том, что ACNxC(k)A_{CN}x_{C}^{(k)} (вклад сошедшихся узлов) является постоянным на протяжении цикла итераций и рассчитывается заранее.

Выводы

Патент описывает внутренние процессы Google без прямых рекомендаций для SEO. Он носит инфраструктурный характер.

  1. Фокус на вычислительной эффективности: Google активно разрабатывает методы для снижения стоимости расчета глобальных алгоритмов ранжирования, таких как PageRank. Это позволяет масштабировать систему и повышать ее эффективность.
  2. Неравномерная сходимость как возможность: Патент использует наблюдение, что ранги документов стабилизируются с разной скоростью (skewed distribution of convergence times).
  3. Адаптивное вычисление: Система динамически адаптирует рабочую нагрузку, идентифицируя и удаляя стабилизировавшиеся компоненты из итеративного процесса.
  4. Математическая оптимизация: Оптимизация основана на разбиении матрицы (Matrix Partitioning), что позволяет значительно сократить количество математических операций за счет предварительного расчета вклада стабильной части графа.

Практика

Патент является инфраструктурным и не дает практических выводов для SEO.

Best practices (это мы делаем)

  • Поскольку патент не описывает сигналы ранжирования, а лишь оптимизирует процесс их вычисления, прямых SEO-рекомендаций из него извлечь нельзя. Он не меняет фундаментальные принципы SEO, такие как важность получения качественных обратных ссылок.

Worst practices (это делать не надо)

  • Патент не направлен против каких-либо конкретных SEO-тактик или манипуляций. Он нейтрален по отношению к стратегиям оптимизации.

Стратегическое значение

Стратегическое значение этого патента для SEO минимально. Он важен для понимания инфраструктуры Google и подтверждает, что ссылочное ранжирование является вычислительно сложной задачей. Это может косвенно указывать на то, что благодаря таким оптимизациям Google может обновлять глобальные метрики быстрее или чаще, чем без них.

Практические примеры

  • Практических примеров применения в SEO нет, так как патент описывает внутреннюю математическую оптимизацию вычислений на стороне поисковой системы.

Вопросы и ответы

Влияет ли этот патент на то, как мне следует строить ссылочную стратегию?

Нет, этот патент не влияет на стратегии линкбилдинга. Он описывает исключительно то, как Google оптимизирует процесс вычисления рангов (например, PageRank) на основе уже собранных данных о ссылках. Патент посвящен повышению эффективности вычислений, а не изменению того, какие ссылки считаются важными.

Что такое "адаптивное вычисление" или "адаптивная сходимость"?

Это метод оптимизации. При расчете PageRank значения рангов стабилизируются (сходятся) не одновременно. Система периодически определяет страницы, чьи ранги уже стабилизировались, и исключает их из дальнейших активных итеративных расчетов, концентрируя ресурсы только на тех страницах, чьи ранги все еще меняются.

Означает ли этот патент, что PageRank все еще используется?

Патент (подача 2004 г.) явно описывает оптимизацию вычислений типа PageRank, подтверждая важность ссылочных сигналов в то время. Хотя алгоритмы Google эволюционировали, базовые принципы использования ссылочной структуры для определения авторитетности остаются актуальными, и подобные оптимизации применимы к любым итеративным алгоритмам ранжирования на графах.

Ускоряет ли этот метод передачу ссылочного веса на моем сайте?

Этот метод ускоряет процесс глобального вычисления PageRank в инфраструктуре Google, но он не меняет механику передачи ссылочного веса. Скорость учета изменений зависит от частоты сканирования и частоты глобальных пересчетов. Этот патент потенциально позволяет Google выполнять пересчет чаще или быстрее, но не гарантирует этого.

В патенте упоминается персонализация (P, D, E). Как она используется?

Патент упоминает, что матрица переходов (P) и векторы, обрабатывающие висячие узлы (D) и случайные переходы (E), могут быть неуниформными и учитывать персонализированную информацию. Например, вероятность случайного перехода на часто посещаемые пользователем сайты может быть выше. Это относится к вычислению персонализированного PageRank.

Что такое "Stability condition" (Условие стабильности)?

Это триггер, который сообщает системе, когда пора остановить текущий цикл итераций и проверить, какие ранги стабилизировались. Это может быть фиксированное число итераций (например, каждые 10 итераций) или достижение определенного процента стабилизировавшихся страниц (например, 25%).

Почему некоторые страницы сходятся медленнее других?

Скорость сходимости зависит от структуры ссылок вокруг страницы. Страницы, вовлеченные в сложные, циклические или длинные цепочки передачи веса, могут требовать больше итераций для стабилизации своего ранга относительно остальной части графа, чем страницы в простых или плотно связанных сообществах.

Описывает ли патент новые факторы ранжирования?

Нет, патент не вводит никаких новых факторов ранжирования. Он полностью сосредоточен на математической и инфраструктурной оптимизации существующих алгоритмов ранжирования, основанных на ссылках. Для SEO-специалистов он не предоставляет новых метрик для оптимизации.

Как именно модифицируется функция ранжирования для экономии ресурсов?

Используется техника разбиения матрицы (Matrix Partitioning). Система разделяет узлы на сошедшиеся (C) и несошедшиеся (N). Вклад сошедшихся узлов в ранги несошедшихся становится константой. Эта константа рассчитывается один раз в начале цикла, а не на каждой отдельной итерации, что значительно сокращает количество математических операций.

Есть ли практическая польза от этого патента для Senior SEO специалиста?

Практическая польза минимальна. Патент не дает прямых инсайтов для изменения SEO-стратегий. Однако он полезен для глубокого понимания инфраструктурных вызовов, с которыми сталкивается Google при расчете глобальных сигналов, и математических методов, используемых для их решения.

Похожие патенты

Как Google оптимизирует инфраструктуру своего индекса для ускорения поиска подстрок и фраз
Этот патент описывает инфраструктурную оптимизацию поискового индекса Google. В нем представлена «гибридная структура данных», которая ускоряет извлечение информации (например, местоположение фраз в документах) путем объединения бинарных деревьев с таблицами поиска и использования высокоэффективных методов сортировки. Это делает поиск быстрее, но не влияет на алгоритмы ранжирования.
  • US8856138B1
  • 2014-10-07
  • Индексация

Как Google эффективно извлекает Топ-N результатов с помощью итеративного битового поиска по ранжирующим оценкам
Патент Google, описывающий инфраструктурный механизм для повышения эффективности поиска. Система использует итеративный битовый поиск по атрибутам документов (Sort Keys), таким как качество или дата, чтобы быстро найти заданное количество результатов (Топ-N). Это позволяет избежать полного сканирования и сортировки всех релевантных документов, оптимизируя скорость извлечения данных.
  • US10235432B1
  • 2019-03-19
  • SERP

  • Свежесть контента

  • Индексация

Как Google использует попарные сравнения (Side-by-Side тесты) для агрегации оценок качества и создания эталонного рейтинга
Патент описывает математический метод, который Google использует для оценки качества поиска на основе попарных сравнений результатов людьми (асессорами). Система собирает данные о предпочтениях (Side-by-Side тесты) и использует модель, аналогичную PageRank (основанную на Марковских процессах), для агрегации этих оценок в единый, устойчивый к шуму рейтинг качества (Preference Ranking). Эти данные служат эталоном для обучения и валидации алгоритмов ранжирования.
  • US7587391B1
  • 2009-09-08
  • SERP

Как Google снижает ценность ссылок между аффилированными сайтами для борьбы с линк-схемами
Google использует модификацию алгоритмов расчета качества (типа PageRank), которая учитывает аффилированность между ссылающимися документами. Если система определяет, что сайты связаны (например, принадлежат одному владельцу, находятся в одной сети или имеют схожие паттерны трафика), ценность ссылок между ними агрессивно снижается. Вместо суммирования веса всех ссылок система учитывает только максимальный вклад от аффилированной группы, нейтрализуя эффект линк-ферм и PBN.
  • US7783639B1
  • 2010-08-24
  • Ссылки

  • Антиспам

  • EEAT и качество

Как Google комбинирует поведенческие сигналы из разных поисковых систем для улучшения ранжирования
Google использует механизм для улучшения ранжирования путем объединения данных о поведении пользователей (клики и время взаимодействия) из разных поисковых систем (например, Веб-поиск и Поиск по Видео). Если в основной системе данных недостаточно, система заимствует данные из другой, применяя весовой коэффициент и фактор сглаживания для контроля смещения и обеспечения релевантности.
  • US8832083B1
  • 2014-09-09
  • Поведенческие сигналы

  • SERP

Популярные патенты

Как Google обрабатывает клики по ссылкам на мобильные приложения (App Deep Links) в результатах поиска
Google использует механизм клиентской обработки результатов поиска, ведущих в нативные приложения. Если у пользователя не установлено нужное приложение, система на устройстве автоматически подменяет ссылку приложения (App Deep Link) на эквивалентный веб-URL. Это гарантирует доступ к контенту через браузер и обеспечивает бесшовный пользовательский опыт.
  • US10210263B1
  • 2019-02-19
  • Ссылки

  • SERP

Как Google использует цепочки запросов и время взаимодействия для определения и ранжирования результатов, которые действительно нужны пользователям
Google анализирует последовательности запросов пользователей (цепочки запросов) и время между кликами и последующими запросами (время взаимодействия), чтобы определить удовлетворенность пользователя. Если пользователи часто переформулируют Запрос А в Запрос Б, прежде чем найти удовлетворительный результат, Google использует эти данные, чтобы ранжировать этот удовлетворительный результат выше по исходному Запросу А и предлагать Запрос Б в качестве связанного поиска.
  • US9342600B1
  • 2016-05-17
  • Поведенческие сигналы

  • Семантика и интент

  • SERP

Как Google вычисляет семантическую близость запросов, анализируя поведение пользователей при переформулировках
Google использует механизм для определения семантического расстояния между запросами (Generalized Edit Distance). Вместо подсчета изменений символов система анализирует исторические логи, чтобы понять, как пользователи переформулируют запросы. На основе этих данных вычисляется «стоимость» замены одного термина на другой с помощью Pointwise Mutual Information (PMI), что позволяет генерировать более релевантные подсказки и расширения запросов.
  • US8417692B2
  • 2013-04-09
  • Семантика и интент

  • Поведенческие сигналы

Как Google использует временной распад и анализ трендов кликов для корректировки ранжирования и борьбы со стагнацией выдачи
Google применяет механизмы для предотвращения «залипания» устаревших результатов в топе выдачи. Система анализирует возраст пользовательских кликов и снижает вес старых данных (временной распад), отдавая приоритет свежим сигналам. Кроме того, система выявляет документы с ускоряющимся трендом кликов по сравнению с фоном и повышает их в выдаче, улучшая актуальность результатов.
  • US9092510B1
  • 2015-07-28
  • Свежесть контента

  • Поведенческие сигналы

  • SERP

Как Google использует внутренние ссылки и структуру DOM для генерации шаблонов сайта и извлечения структурированных сниппетов
Google анализирует повторяющиеся блоки внутренних ссылок (например, списки товаров). Если текст возле ссылки на исходной странице совпадает с текстом на целевой странице, Google определяет DOM-структуру этого текста и создает шаблон домена. Этот шаблон позволяет автоматически извлекать ключевую информацию (например, цену и характеристики) для сниппетов со всех однотипных страниц сайта, даже без микроразметки.
  • US9971746B2
  • 2018-05-15
  • Структура сайта

  • SERP

  • Ссылки

Как Google интегрирует поиск в инструменты создания контента и использует распространение ссылок для расчета репутации автора
Google разработал систему (UDS), интегрирующую поиск в инструменты создания контента (Email, блоги, форумы). Система автоматически уточняет запросы на основе контекста и профилей пользователей. Если автор вставляет ссылку, а читатель кликает по ней, Google использует это взаимодействие для расчета «оценки репутации» автора и как поведенческий сигнал качества контента.
  • US7844603B2
  • 2010-11-30
  • Ссылки

  • Поведенческие сигналы

  • EEAT и качество

Как Google комбинирует поведенческие сигналы из разных поисковых систем для улучшения ранжирования
Google использует механизм для улучшения ранжирования путем объединения данных о поведении пользователей (клики и время взаимодействия) из разных поисковых систем (например, Веб-поиск и Поиск по Видео). Если в основной системе данных недостаточно, система заимствует данные из другой, применяя весовой коэффициент и фактор сглаживания для контроля смещения и обеспечения релевантности.
  • US8832083B1
  • 2014-09-09
  • Поведенческие сигналы

  • SERP

Как Google использует модель предвзятости представления (Presentation Bias), чтобы отделить клики по релевантности от кликов по позиции
Google использует механизм для интерпретации поведения пользователей (CTR), который учитывает, как именно представлены результаты поиска. Система рассчитывает ожидаемый CTR для конкретной позиции и визуального оформления (сниппет, выделение). Чтобы получить буст от поведенческих факторов, реальный CTR документа должен значительно превышать этот ожидаемый уровень. Это позволяет отфильтровать клики, обусловленные высокой позицией или привлекательным сниппетом, и выделить сигналы истинной релевантности.
  • US8938463B1
  • 2015-01-20
  • Поведенческие сигналы

  • SERP

Как Google ранжирует контент на других языках, основываясь на поведении пользователей с одинаковыми языковыми настройками
Google использует статистику кликов (CTR), сегментированную по языковым предпочтениям пользователей, для корректировки ранжирования. Если пользователи, предпочитающие язык X, часто кликают на результат на языке Y, этот результат будет повышен в выдаче для других пользователей с предпочтением языка X. Это позволяет ранжировать контент, популярный у определенной языковой группы, независимо от языка самого контента.
  • US8375025B1
  • 2013-02-12
  • Мультиязычность

  • Поведенческие сигналы

  • Персонализация

Как Google использует историю браузера, закладки и поведение пользователей для персонализации результатов поиска в e-commerce
Система отслеживает поведение пользователей (клики, время на сайте, покупки) и их сохраненные закладки (content pointers) в сетевой среде. На основе этих данных создается персональная модель релевантности и иерархия предпочтений. Эта модель используется для дополнения запросов, переранжирования результатов поиска и предоставления рекомендаций, обеспечивая персонализированный опыт в e-commerce.
  • US7089237B2
  • 2006-08-08
  • Поведенческие сигналы

  • Персонализация

  • SERP

seohardcore