SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google статистически определяет значимые шаблоны URL (префиксы и суффиксы) для улучшения каноникализации и эффективности сканирования

DETECTING COMMON PREFIXES AND SUFFIXES IN A LIST OF STRINGS (Обнаружение общих префиксов и суффиксов в списке строк)
  • US8095530B1
  • Google LLC
  • 2008-07-21
  • 2012-01-10
  • Краулинг
  • Техническое SEO
  • Индексация
  • Структура сайта
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует статистический метод для анализа больших наборов URL и выявления общих префиксов или суффиксов, которые встречаются чаще, чем ожидалось случайно. Это помогает Google понять структуру URL, сгруппировать похожий контент и определить нерелевантные части URL (например, общие префиксы пути или поддомены), чтобы улучшить каноникализацию и избежать сканирования дублирующегося контента.

Описание

Какую проблему решает

Патент решает задачу автоматического распознавания структурно значимых шаблонов (аффиксов) в больших наборах строк (в частности, URL-адресов) и отделения их от случайно повторяющихся последовательностей символов. Основная цель в контексте поиска — улучшение процесса каноникализации URL и повышение эффективности краулинга. Идентификация значимых префиксов и суффиксов позволяет системе понять структуру URL на конкретном хосте, определить, какие части URL могут быть нерелевантными для идентификации уникального контента, и тем самым оптимизировать бюджет сканирования (Crawl Budget) и уменьшить дублирование в индексе.

Что запатентовано

Запатентован метод статистического анализа для определения того, является ли общий префикс или суффикс в списке строк (например, URL) статистически значимым. Система использует биномиальное распределение (Binomial Distribution) для расчета вероятности того, что данный шаблон встречается наблюдаемое количество раз случайно. Если эта вероятность крайне мала (ниже заданного порога), шаблон признается «значимым аффиксом» (Significant Affix).

Как это работает

Система анализирует список строк (URL). Для заданной длины X она подсчитывает, сколько строк (M) имеют определенный префикс или суффикс, из общего числа строк (N), достаточно длинных для его содержания. Затем система вычисляет вероятность (Test Statistic) того, что это произошло случайно, основываясь на предопределенной модели распределения символов (Predetermined Model) (например, используя эмпирические частоты символов в URL). Если наблюдаемая частота значительно превышает случайную, система помечает этот шаблон как Significant Affix. Эти данные используются для информирования систем каноникализации и краулинга.

Актуальность для SEO

Высокая. Каноникализация и эффективное управление Crawl Budget остаются фундаментальными задачами для Google. Описанный статистический подход к идентификации структурных элементов URL для понимания архитектуры сайта и каноникализации по-прежнему актуален, особенно для управления крупными сайтами, сложными системами фасетной навигации и динамическими URL.

Важность для SEO

Патент имеет значительное влияние на техническое SEO и информационную архитектуру (75/100). Он напрямую связан с тем, как Google интерпретирует структуру URL и выполняет каноникализацию. Понимание этого механизма помогает Senior SEO-специалистам структурировать URL таким образом, чтобы облегчить эффективное сканирование и корректную идентификацию уникального контента, особенно на крупных сайтах (e-commerce, каталоги).

Детальный разбор

Термины и определения

Affix (Аффикс)
Общий термин для префикса (начало строки) или суффикса (конец строки). Подстрока, расположенная на краю (extremity) строки.
Binomial Distribution (Биномиальное распределение)
Статистическая модель, используемая для расчета вероятности определенного числа успехов (в данном случае, совпадений аффикса) в серии независимых экспериментов (N строк).
Character String (Символьная строка)
Последовательность символов. В контексте патента основной пример — URL.
M
Количество строк в наборе, которые имеют определенную уникальную подстроку (аффикс) длины X.
N (или Nx)
Общее количество строк в наборе, длина которых составляет не менее X символов.
Predetermined Model (Предопределенная модель распределения символов)
Модель, определяющая вероятность появления отдельных символов в строках. Может быть равномерной (все символы равновероятны) или неравномерной (на основе эмпирических данных о частоте символов в интернете или в данном наборе строк).
Significant Affix (Значимый аффикс)
Префикс или суффикс, который встречается в наборе строк значительно чаще, чем это можно было бы ожидать случайно, согласно статистическому тесту.
Test Statistic (T) (Тестовая статистика)
Вычисленное значение, используемое для определения статистической значимости. В данном патенте T — это условная вероятность того, что аффикс встречается M или более раз, при условии, что он встречается хотя бы один раз.

Ключевые утверждения (Анализ Claims)

Примечание: Патент US8095530B1 содержит описания систем каноникализации на основе релевантности параметров (FIG 1-5), но его формула изобретения (Claims 1-35) сосредоточена исключительно на методе статистического обнаружения аффиксов (FIG 6-7).

Claim 1 (Независимый пункт): Описывает основной метод обнаружения значимого аффикса.

  1. Система получает множество символьных строк.
  2. Определяется M: количество строк, имеющих уникальную подстроку длины X на краю (префикс или суффикс).
  3. Определяется N: общее количество строк, длина которых не менее X (N>M).
  4. Вычисляется вероятность (P) того, что данная подстрока встретится M или более раз из N строк, при условии, что она встречается хотя бы один раз.
  5. Эта вероятность P рассчитывается как отношение вероятности того, что подстрока встречается M или более раз, к вероятности того, что она встречается хотя бы один раз.
  6. В расчете используется формула биномиального распределения, которая учитывает вероятность появления отдельных символов (Psubstring[i]P_{substring[i]}Psubstring[i]​) согласно Predetermined Model.
  7. На основе P, M и N система определяет, является ли подстрока Significant Affix.
  8. Значимый аффикс сохраняется.

Claim 14 (Независимый пункт): Описывает итеративный процесс для поиска всех значимых аффиксов разной длины.

Процесс аналогичен Claim 1, но применяется итеративно для X, изменяющегося от предопределенной минимальной длины до предопределенной максимальной длины. Это позволяет системе идентифицировать как короткие, так и длинные значимые шаблоны в наборе данных.

Claim 15 (Зависимый от 14): Детализирует постобработку результатов.

Система генерирует финальный список значимых аффиксов, исключая те, которые являются подстроками (например, суб-префиксами) других, более длинных значимых аффиксов. Это фокусирует результат на наиболее специфичных шаблонах.

Где и как применяется

Изобретение применяется на этапах, связанных с обработкой и анализом URL-адресов для оптимизации сканирования и индексирования.

CRAWLING – Сканирование и Сбор данных
Система может использовать предварительно вычисленные Significant Affixes для анализа вновь обнаруженных URL. Распознавая общие структуры URL, система может оптимизировать приоритеты сканирования или идентифицировать группы URL, принадлежащие к одному разделу. Это помогает оптимизировать Crawl Budget.

INDEXING – Индексирование (Каноникализация)
Это основная область применения. Система анализирует большие партии уже просканированных URL (часто сгруппированных по хосту) для выявления статистически значимых шаблонов.

  1. Анализ структуры URL: Идентификация Significant Affixes помогает понять структуру сайта. Например, система может определить общие префиксы пути (/catalog/product/) или префиксы хоста (www1., m.).
  2. Информирование каноникализации: Если определенный префикс является значимым (т.е. структурным), но при этом не влияет на уникальность контента (например, префиксы локализации или сессий, которые не меняют основного содержания), эта информация может быть использована для создания правил каноникализации, которые игнорируют этот префикс при определении канонического URL.

Входные данные:

  • Множество символьных строк (URL-адреса).
  • Predetermined Model для распределения символов (вероятности Psubstring[i]P_{substring[i]}Psubstring[i]​).
  • Порог статистической значимости (Significance Level).

Выходные данные:

  • Список идентифицированных Significant Affixes.

На что влияет

  • Технические факторы (URL): Влияет на интерпретацию структуры URL, включая префиксы хостов (субдомены) и префиксы/суффиксы путей (каталоги, расширения файлов).
  • Конкретные типы контента и ниши: Особенно влияет на сайты с глубокой иерархией или динамической генерацией URL, такие как крупные e-commerce платформы, каталоги, форумы, где часто встречаются структурные шаблоны, которые могут приводить к дублированию контента.

Когда применяется

  • Условия применения: Алгоритм применяется к достаточно большому набору строк (URL), чтобы статистический анализ был достоверен. Чаще всего применяется к URL, сгруппированным по хосту или домену.
  • Временные рамки: Процесс выполняется офлайн или в пакетном режиме для периодического анализа логов сканирования и обновления понимания структуры сайтов. Он не выполняется в реальном времени при обработке поискового запроса.

Пошаговый алгоритм

Процесс итеративного обнаружения значимых аффиксов (на примере префиксов):

  1. Инициализация: Определение минимальной и максимальной длины искомых префиксов (X) и установка порога статистической значимости (Significance Level).
  2. Получение данных: Получение списка строк (URL) для анализа.
  3. Определение модели распределения: Определение вероятности символов (Psubstring[i]P_{substring[i]}Psubstring[i]​) — например, путем анализа частоты символов в полученном списке или использования общей модели для интернета.
  4. Итерация по длине (X): Цикл от минимальной до максимальной длины.
  5. Фильтрация строк (N): Определение количества строк (N или Nx), длина которых >= X.
  6. Извлечение подстрок: Извлечение префиксов длины X из отфильтрованных строк.
  7. Итерация по уникальным подстрокам (S): Цикл по каждому уникальному префиксу S.
  8. Подсчет совпадений (M): Определение количества строк (M), начинающихся с S.
  9. Расчет тестовой статистики (T): Вычисление вероятности того, что S встречается M или более раз, при условии, что он встречается хотя бы один раз. Используется Binomial Distribution.
  10. Проверка значимости: Сравнение T с порогом. Если T < Significance Level, префикс S помечается как Significant Affix.
  11. Пост-обработка (Фильтрация): После завершения всех итераций список значимых аффиксов фильтруется. Удаляются короткие префиксы, которые являются частью более длинного значимого префикса (например, если найдены "/blog/2025/" и "/blog/", то "/blog/" удаляется).
  12. Сохранение: Сохранение итогового списка Significant Affixes.

Какие данные и как использует

Данные на входе

  • Технические факторы (URL-структура): Основные данные — это сами URL-адреса (или другие строки). Система анализирует структуру URL, включая хост, путь и параметры. В патенте явно упоминается применение этого метода к анализу частей хоста (например, префиксов субдоменов) и компонентов пути.
  • Системные данные (Модель распределения): Данные о вероятности появления символов (Predetermined Model), которые могут быть получены эмпирически из большого корпуса URL или из анализируемого набора данных.

Какие метрики используются и как они считаются

Система использует несколько ключевых метрик:

  • M: Количество строк с конкретным аффиксом длины X.
  • N (Nx): Общее количество строк длиной не менее X.
  • X: Длина анализируемого аффикса.
  • Psubstring[i]P_{substring[i]}Psubstring[i]​: Вероятность появления отдельного символа i (согласно Predetermined Model).

Формулы расчета:

Вероятность того, что конкретная подстрока S длины X появится случайно (PS):

PS=∏i=1XPsubstring[i]P_S = \prod_{i=1}^{X} P_{substring[i]}PS​=∏i=1X​Psubstring[i]​

Вероятность того, что подстрока S встретится ровно M раз в N строках (P(M, N, S)) (Биномиальное распределение):

P(M,N,S)=N!M!(N−M)!(PS)M(1−PS)N−MP(M, N, S) = \frac{N!}{M!(N-M)!} (P_S)^M (1-P_S)^{N-M}P(M,N,S)=M!(N−M)!N!​(PS​)M(1−PS​)N−M

Тестовая статистика (T) — вероятность того, что S встречается M или более раз, при условии, что он встречается хотя бы один раз (Условная вероятность):

T=∑M

Выводы

  1. Статистический подход к структуре URL: Google использует строгие статистические методы (Binomial Distribution, условные вероятности), а не просто подсчет частоты, чтобы понять структуру URL. Это позволяет системе отличать реальные структурные элементы сайта (каталоги, поддомены) от случайных совпадений символов.
  2. Цель — Каноникализация и Эффективность: Основная цель этого механизма — повышение эффективности сканирования и точности каноникализации. Идентификация Significant Affixes помогает системе распознавать структурно схожие URL и определять, какие части URL могут быть избыточными для идентификации уникального контента.
  3. Адаптивность и Важность Модели Распределения: Точность метода зависит от Predetermined Model. Система адаптивна, так как может использовать как общие данные по интернету, так и специфичные для анализируемого набора URL данные (эмпирические частоты символов).
  4. Анализ на уровне хоста/пути: Метод применяется к группам URL с одного хоста или домена, позволяя Google выявлять специфические для сайта шаблоны и правила (например, как конкретный сайт использует субдомены или структуру каталогов).
  5. Фокус на самых длинных шаблонах: Система фильтрует результаты (Claim 15), предпочитая более длинные значимые шаблоны коротким, которые являются их частью. Это указывает на стремление найти наиболее полные и специфичные структурные элементы.

Практика

Best practices (это мы делаем)

  • Поддерживайте чистую, последовательную и логичную структуру URL: Это ключевая рекомендация. Предсказуемая структура URL помогает Google правильно идентифицировать Significant Affixes как структурные элементы. Если /category/ или /product/ используются последовательно, система статистически подтвердит их значимость.
  • Используйте осмысленные префиксы для разделения контента: Четко разграничивайте разделы сайта с помощью осмысленных префиксов пути или субдоменов. Это поможет системе правильно классифицировать контент и понять архитектуру сайта.
  • Управляйте каноникализацией вариативных URL: Если вариации контента (например, языковые версии или цвета товара) реализованы через префиксы пути (/en/page, /de/page), важно правильно настроить каноникализацию и/или hreflang. Этот механизм поможет Google понять, что эти префиксы значимы структурно, но система каноникализации должна решить, являются ли они уникальным контентом.
  • Стандартизируйте использование поддоменов: Определите четкие правила использования поддоменов (например, www., m., blog.). Последовательное использование облегчает статистический анализ структуры хостов.

Worst practices (это делать не надо)

  • Использование случайных или неинформативных префиксов: Избегайте использования сессионных идентификаторов, случайных чисел или хэшей в качестве префиксов пути или субдоменов (например, /sess-123/page). Это создает шум в данных и затрудняет статистическое выявление реальных структурных шаблонов.
  • Непоследовательное использование структурных элементов: Не следует использовать разные префиксы для одного и того же типа контента (например, /articles/name и /blog/name без четкой логики). Это размывает статистические сигналы и снижает вероятность идентификации шаблона как значимого.
  • Создание бесконечных пространств URL (Crawler Traps): Генерация огромного количества URL с незначительными вариациями в префиксах, которые не меняют контент, приводит к неэффективному расходованию Crawl Budget. Система будет вынуждена анализировать миллионы строк, чтобы определить статистическую значимость этих вариаций.

Стратегическое значение

Патент подтверждает критическую важность сильной информационной архитектуры и технической гигиены URL. Google не просто рассматривает URL как адрес, но и анализирует его структуру сложными статистическими методами для понимания организации сайта и эффективного управления ресурсами сканирования. Долгосрочная стратегия SEO должна включать разработку и поддержание такой структуры URL, которая облегчает Google идентификацию уникального контента и минимизирует проблемы с каноникализацией.

Практические примеры

Сценарий 1: Анализ префиксов каталогов интернет-магазина

  1. Входные данные: Google анализирует 10,000 URL с сайта example.com.
  2. Анализ префикса A (Структура): Префикс /product/ встречается 4000 раз (M=4000) из 10000 (N=10000). Система рассчитывает вероятность случайного появления /product/ 4000 раз. Эта вероятность (T) крайне низка.
  3. Результат A: T ниже порога. /product/ признается significant affix. Google понимает, что это важный структурный каталог.
  4. Анализ префикса B (Шум): Префикс /user-id-29384/ встречается 5 раз (M=5). Система рассчитывает вероятность. Вероятность случайного появления 5 раз достаточно высока.
  5. Результат B: T выше порога. /user-id-29384/ не признается значимым шаблоном на уровне всего сайта.
  6. SEO-вывод: Последовательное использование /product/ помогает Google понять архитектуру. Генерация пользовательских путей создает шум.

Сценарий 2: Анализ субдоменов для каноникализации

  1. Ситуация: Сайт использует субдомены для балансировки нагрузки: www1.site.com, www2.site.com, www3.site.com. Контент идентичен.
  2. Применение алгоритма: Google анализирует имена хостов.
  3. Результат: Префиксы "www1.", "www2.", "www3." статистически определяются как Significant Affixes, так как они встречаются гораздо чаще, чем случайные комбинации символов.
  4. Применение: Идентификация этих префиксов как значимых структурных элементов помогает системе каноникализации понять, что они могут быть взаимозаменяемыми (если контент действительно совпадает), и консолидировать сигналы на одном каноническом хосте.

Вопросы и ответы

Является ли этот патент просто подсчетом самых частых префиксов в URL?

Нет, это более сложный механизм. Он не просто ищет часто встречающиеся префиксы, а использует статистический анализ (Binomial Distribution и условную вероятность), чтобы определить, насколько вероятно, что данная частота является случайной. Префикс, состоящий из редких символов, может быть признан значимым при меньшей частоте, чем префикс из частых символов, потому что вероятность его случайного появления ниже.

Как этот патент связан с каноникализацией и Crawl Budget?

Патент напрямую связан с улучшением каноникализации и оптимизацией Crawl Budget. Идентифицируя Significant Affixes, Google лучше понимает структуру URL на сайте. Если система определяет, что определенный префикс (например, поддомен или каталог) является структурным элементом, но не влияет на уникальность контента, эта информация может использоваться для создания правил каноникализации и предотвращения повторного сканирования дублей.

Влияет ли этот механизм на ранжирование напрямую?

Патент не описывает прямого влияния на расчет Ranking Scores. Однако он оказывает сильное косвенное влияние. Корректная каноникализация позволяет консолидировать сигналы ранжирования на каноническом URL, что улучшает его позиции. Также оптимизация Crawl Budget позволяет быстрее и полнее индексировать важный контент сайта.

Что такое «Предопределенная модель распределения символов» и почему она важна?

Это модель (Predetermined Model), которая определяет базовую вероятность появления каждого символа в URL. Google может использовать равномерную модель (все символы равновероятны) или неравномерную (основанную на реальных частотах символов в интернете или на данном сайте). Это важно, потому что случайное появление префикса "/abc/" более вероятно, чем "/xyz/", если символы x, y, z встречаются реже. Модель позволяет точно рассчитать эту базовую вероятность.

Как SEO-специалисту использовать эти знания при разработке структуры URL?

Ключевой вывод — последовательность и логичность. Структура URL должна быть чистой, предсказуемой и осмысленной. Избегайте случайных элементов, ID сессий или непоследовательных имен в путях и субдоменах. Четкая иерархия помогает этому алгоритму правильно идентифицировать структурные элементы сайта (Significant Affixes) и отличать их от уникальных идентификаторов контента.

Может ли этот алгоритм навредить сайту с хаотичной структурой URL?

Если структура URL хаотична или использует случайные префиксы для уникального контента, система не сможет выявить статистически значимые закономерности. Это не приведет к пессимизации напрямую, но значительно снизит эффективность сканирования и увеличит вероятность ошибок каноникализации, так как Google будет сложнее понять архитектуру сайта и кластеризовать контент.

Применяется ли этот метод к анализу query-параметров URL?

Метод анализирует префиксы и суффиксы самой строки URL. Он может применяться к строке запроса (query string), если она рассматривается как строка. Однако его основное назначение — это анализ структурных элементов, таких как хост и путь. Для анализа релевантности отдельных query-параметров Google использует другие методы (например, анализ энтропии, также упомянутый в описании этого патента, но не являющийся частью Claims).

Как система обрабатывает разные длины аффиксов и перекрывающиеся шаблоны?

Система работает итеративно, проверяя все возможные длины (Claim 14). После обнаружения всех значимых аффиксов происходит пост-обработка (Claim 15). Система предпочитает более длинные значимые аффиксы и отбрасывает более короткие, которые являются их частью (например, если "/catalog/shoes/" значим, то "/catalog/" будет отброшен).

Может ли этот механизм использоваться для обнаружения спама или дорвеев?

Да, это возможное применение. Если спам-техника генерирует большое количество URL с определенным структурным шаблоном (например, дорвеи с общим префиксом или суффиксом), этот механизм может статистически идентифицировать этот шаблон как significant affix. Это может послужить триггером для дальнейшего анализа этих URL на предмет спама.

Насколько большим должен быть раздел сайта, чтобы Google распознал его структуру как значимую?

Патент не указывает конкретное число URL (N) или вхождений (M). Это зависит от длины префикса (X), модели распределения символов и установленного порога (Significance Level). Более длинные и сложные префиксы требуют значительно меньше повторений, чтобы быть признанными статистически значимыми, поскольку вероятность их случайного возникновения экспоненциально ниже.

Похожие патенты

Как Google автоматически определяет и удаляет неважные URL-параметры для каноникализации и эффективного сканирования
Google использует систему для автоматического определения канонической формы URL. Система активно тестирует различные комбинации параметров в URL, чтобы определить, какие из них влияют на контент, а какие нет (например, tracking-коды или session ID). Неважные параметры удаляются с помощью правил перезаписи, что позволяет свести множество дублирующихся URL к единой канонической версии, экономя краулинговый бюджет.
  • US7827254B1
  • 2010-11-02
  • Краулинг

  • Техническое SEO

  • Индексация

Как Google определяет, какие параметры URL влияют на контент, чтобы выбрать канонический URL и оптимизировать краулинг
Google использует систему для статистического анализа динамических URL-адресов и определения того, какие параметры являются значимыми для контента (content-relevant), а какие нет (content-irrelevant). Система группирует URL-адреса, ведущие на одинаковый контент, в «Классы эквивалентности» и выбирает один «Представительский URL» для сканирования и индексации, экономя краулинговый бюджет и решая проблемы дублированного контента.
  • US7680773B1
  • 2010-03-16
  • Техническое SEO

  • Краулинг

  • Индексация

Как Google автоматически обнаруживает и удаляет идентификаторы сессий из URL для оптимизации сканирования и предотвращения дублирования
Google использует механизм для автоматического обнаружения идентификаторов сессий в URL-адресах во время сканирования. Система анализирует подстроки, которые выглядят случайными и повторяются в нескольких URL с одного сайта. Эти идентификаторы удаляются для создания «чистых» версий URL. Это позволяет поисковой системе распознавать дублирующийся контент и избегать повторного сканирования одних и тех же страниц, оптимизируя краулинговый бюджет.
  • US7886032B1
  • 2011-02-08
  • Краулинг

  • Техническое SEO

  • Индексация

Как Google автоматически генерирует правила нормализации слов и поиска вариантов с помощью суффиксных деревьев
Google использует статистические методы и структуру данных «суффиксное дерево» для автоматического создания правил изменения окончаний слов (стемминга и генерации вариантов). Система анализирует наблюдаемые пары слов, обобщает их до правил и использует алгоритмы оптимизации, чтобы определить, когда эти правила применимы, а когда нет. Это обеспечивает точность обработки языка даже для редких слов.
  • US8352247B2
  • 2013-01-08
  • Индексация

Как Google использует анализ окончаний запросов (суффиксов) для улучшения работы Автокомплита, игнорируя начало запроса
Google использует механизм для улучшения подсказок Автокомплита (Search Suggest), фокусируясь на окончании (суффиксе) запроса. Если начало запроса редкое или неоднозначное, система ищет популярные прошлые запросы с похожими окончаниями, но разными началами. Это позволяет предлагать релевантные подсказки, основываясь на том, как пользователи обычно заканчивают схожие по структуре запросы.
  • US8417718B1
  • 2013-04-09

Популярные патенты

Как Google использует социальные связи для выявления предвзятых ссылок и борьбы со ссылочными схемами и кликфродом
Google анализирует взаимоотношения между администраторами веб-сайтов (используя данные социальных сетей), чтобы определить независимость ссылок или кликов по рекламе. Если обнаружена тесная связь, это интерпретируется как предвзятость (Bias). В результате вес ссылки для ранжирования может быть снижен (борьба с Search Spamming), или клик по рекламе может быть дисконтирован (борьба с Ad Spamming).
  • US10402457B1
  • 2019-09-03
  • Ссылки

  • Антиспам

  • Краулинг

Как Google использует язык интерфейса пользователя и поведенческие сигналы для определения языковой релевантности документа
Google определяет, для носителей каких языков релевантен документ, анализируя агрегированные данные о кликах. Система изучает, какой языковой интерфейс поиска (например, google.fr или google.de) использовали пользователи, кликнувшие на результат. Учитывая поведенческие факторы, такие как время пребывания на странице (Dwell Time) и позиция клика, Google рассчитывает Оценку Языковой Релевантности. Это позволяет определить целевую аудиторию страницы независимо от языка ее контента.
  • US9208231B1
  • 2015-12-08
  • Мультиязычность

  • Поведенческие сигналы

  • SERP

Как Google определяет географическую зону релевантности бизнеса на основе реального поведения пользователей (Catchment Areas)
Google определяет уникальную "зону охвата" (Catchment Area) для локального бизнеса, анализируя, из каких географических точек пользователи кликали на его результаты в поиске. Эта динамическая зона заменяет фиксированный радиус и используется для фильтрации кандидатов при локальном поиске, учитывая известность бренда, категорию бизнеса и физические препятствия.
  • US8775434B1
  • 2014-07-08
  • Local SEO

  • Поведенческие сигналы

Как Google использует машинное обучение для прогнозирования желаемого типа контента (Web, Images, News) и формирования смешанной выдачи (Universal Search)
Google анализирует исторические журналы поиска (пользователь, запрос, клики), чтобы обучить модель машинного обучения. Эта модель предсказывает вероятность того, что пользователь хочет получить результаты из определенного репозитория (например, Картинки или Новости). Google использует эти прогнозы, чтобы решить, в каких индексах искать и как смешивать результаты на финальной странице выдачи (Universal Search).
  • US7584177B2
  • 2009-09-01
  • Семантика и интент

  • SERP

  • Персонализация

Как Google улучшает результаты поиска, подбирая похожие "идеальные" запросы из логов и структурированных данных
Google идентифицирует запросы, которые стабильно показывают высокое вовлечение пользователей (CTR, долгие клики), и генерирует синтетические запросы из структурированных данных (например, частотного анкорного текста). Когда пользователь вводит похожий, но потенциально плохо сформулированный запрос, Google использует эти "аугментирующие запросы" для предоставления более качественных и релевантных результатов.
  • US9128945B1
  • 2015-09-08
  • SERP

  • Поведенческие сигналы

  • EEAT и качество

Как Google корректирует позиционную предвзятость (Position Bias) при обучении моделей ранжирования на кликах пользователей
Google использует механизм для устранения позиционной предвзятости (Position Bias) при обучении моделей ранжирования (Learning to Rank). Система анализирует, на какой позиции находился кликнутый результат, и присваивает этому клику вес важности. Клики по нижним позициям получают больший вес, чем клики по ТОП-1. Это позволяет модели учиться определять истинную релевантность, а не просто копировать существующий порядок выдачи.
  • US20210125108A1
  • 2021-04-29
  • Поведенческие сигналы

  • SERP

Как Google использует географическое положение и историю поведения пользователей для разрешения неоднозначных запросов
Google применяет механизм для интерпретации неоднозначных поисковых запросов, которые имеют несколько географических или категориальных значений. Система определяет доминирующий интент, анализируя, как пользователи в том же регионе ранее уточняли похожие запросы и насколько они были удовлетворены результатами. На основе этих локализованных данных (гистограмм и метрик неудовлетворенности) выбирается наиболее вероятная интерпретация, и выдача фильтруется соответственно.
  • US8478773B1
  • 2013-07-02
  • Семантика и интент

  • Персонализация

  • Поведенческие сигналы

Как Google использует клики пользователей в Поиске по Картинкам для определения реального содержания изображений
Google использует данные о поведении пользователей для автоматической идентификации содержания изображений. Если пользователи вводят определенный запрос (Идею) и массово кликают на конкретное изображение в результатах поиска, система ассоциирует это изображение с Концептом, производным от запроса. Это позволяет Google понимать, что изображено на картинке, не полагаясь исключительно на метаданные или сложный визуальный анализ, и улучшает релевантность ранжирования в Image Search.
  • US8065611B1
  • 2011-11-22
  • Поведенческие сигналы

  • Семантика и интент

  • Мультимедиа

Как Google игнорирует часто меняющийся контент и ссылки в нем, определяя "временные" блоки шаблона сайта
Google использует механизм для отделения основного контента от динамического шума (реклама, виджеты, дата). Система сравнивает разные версии одной страницы, чтобы найти часто меняющийся контент. Затем она анализирует HTML-структуру (путь) этого контента и статистически определяет, является ли этот структурный блок "временным" для всего сайта. Такой контент игнорируется при индексации и таргетинге рекламы, а ссылки в нем могут не учитываться при расчете PageRank.
  • US8121991B1
  • 2012-02-21
  • Индексация

  • Техническое SEO

  • Структура сайта

Как Google использует контент веб-страниц для генерации, верификации и адаптации AI-ответов в поиске (SGE/AI Overviews)
Google использует Большие Языковые Модели (LLM) для создания генеративных сводок (AI Overviews/SGE). Для обеспечения точности система не полагается только на знания LLM, а обрабатывает контент из актуальных результатов поиска (SRDs). Патент описывает архитектуру этого процесса: как выбираются источники, как генерируется сводка на их основе (Grounding), как проверяется информация для добавления ссылок (Verification), и как ответ адаптируется под контекст и действия пользователя.
  • US20250005303A1
  • 2025-01-02
  • SERP

  • EEAT и качество

  • Персонализация

seohardcore