SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует языковые модели и анализ «набивки запросами» (Query Stuffing) для выявления и пессимизации спамного и сгенерированного контента

IDENTIFYING GIBBERISH CONTENT IN RESOURCES (Идентификация бессмысленного контента в ресурсах)
  • US8554769B1
  • Google LLC
  • 2009-06-17
  • 2013-10-08
  • Антиспам
  • SERP
  • EEAT и качество
  • Индексация
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google применяет систему для обнаружения бессмысленного контента (спама), вычисляя «Gibberish Score». Эта оценка состоит из двух частей: «Language Model Score», проверяющего статистическую вероятность того, что текст является естественным языком, и «Query Stuffing Score», который выявляет неестественное скопление реальных пользовательских запросов на странице. Ресурсы с низким баллом понижаются в выдаче или удаляются из индекса.

Описание

Какую проблему решает

Патент решает проблему обнаружения и нейтрализации Gibberish Content (бессмысленного контента), который создается спамерами для манипулирования поисковой выдачей и монетизации трафика. Это включает борьбу с такими техниками, как перенасыщение ключевыми словами (keyword stuffing), автоматическая генерация контента путем скрапинга и случайного склеивания фрагментов, а также использование низкокачественного машинного перевода. Изобретение направлено на улучшение качества SERP путем удаления или понижения таких ресурсов.

Что запатентовано

Запатентована система для вычисления Gibberish Score (оценки бессмысленности) для веб-ресурсов. Изобретение использует два независимых механизма: Language Model Score (LMS), который оценивает вероятность того, что текст соответствует естественному языку с помощью статистических моделей (например, N-gram), и Query Stuffing Score (QSS), который определяет, не состоит ли контент из неестественно высокой концентрации известных поисковых запросов. Итоговый Gibberish Score используется для модификации Ranking Score ресурса.

Как это работает

Система анализирует ресурс по двум направлениям:

  • Естественность языка (LMS): Текст разбивается на сегменты (например, параграфы). Языковая модель оценивает вероятность последовательности слов в каждом сегменте. Низкая вероятность указывает на сгенерированный или бессмысленный текст.
  • Набивка запросами (QSS): Система использует Query Index (базу реальных запросов пользователей). Она проверяет, сколько различных запросов, связанных с самыми частыми терминами документа, фактически присутствует в тексте. Высокий коэффициент совпадений (Hit Ratio) указывает на Query Stuffing.
  • Агрегация и действие: Оценки LMS и QSS объединяются (например, выбирается минимальная). Если итоговый Gibberish Score ниже определенных порогов, ресурс может быть удален из ранжирования или значительно понижен (демотирован).

Актуальность для SEO

Высокая. Принципы, описанные в патенте, являются фундаментальными для обнаружения низкокачественного и машинно-сгенерированного контента. Хотя конкретные языковые модели эволюционировали (от N-grams к трансформерам), задача статистического анализа естественности языка и обнаружения манипулятивного использования ключевых слов остается критически важной для поддержания качества поиска, особенно в эпоху генеративного ИИ.

Важность для SEO

Патент имеет высокое значение для SEO (8/10). Он напрямую нацелен на обнаружение и наказание за использование распространенных black/grey hat тактик, таких как кейворд стаффинг, спиннинг контента и автоматическая генерация. Он демонстрирует механизмы, с помощью которых Google измеряет «естественность» языка и паттерны использования ключевых слов, подчеркивая необходимость создания качественного, органичного контента.

Детальный разбор

Термины и определения

Gibberish Content (Бессмысленный контент)
Контент ресурса, который с высокой вероятностью является спамом. Включает текстовые последовательности, которые статистически не похожи на естественный язык или структурированный текст, часто создается для включения высокоценных ключевых слов без контекста.
Language Model (Языковая модель)
Статистическая модель (например, N-gram модель), которая определяет вероятность появления определенной строки слов в языке. Используется для оценки естественности текста.
Language Model Score (LMS)
Оценка, рассчитанная для ресурса на основе языковой модели. Отражает общую вероятность того, что контент ресурса является естественным языком.
N-gram
Последовательность из N последовательных слов. Используется в языковых моделях для расчета вероятности слова на основе контекста предыдущих слов (например, 5-gram модель).
Query Index (Индекс запросов)
База данных, содержащая множество реальных пользовательских запросов (например, из логов поиска), где каждый запрос привязан к одному или нескольким терминам (ключам), содержащимся в нем.
Query Stuffing Score (QSS)
Оценка, указывающая на вероятность того, что ресурс перенасыщен поисковыми запросами. Рассчитывается на основе частоты терминов в ресурсе и анализа совпадений с Query Index.
Hit Ratio (Коэффициент попаданий)
Метрика, используемая при расчете QSS. Это доля запросов в Query Index для определенного ключа (термина), которые были найдены в тексте ресурса.
Gibberish Score (Оценка бессмысленности)
Финальная оценка ресурса, рассчитанная с использованием Language Model Score и Query Stuffing Score. Используется для определения необходимости модификации Ranking Score.
Text Segment (Текстовый сегмент)
Последовательность терминов (например, страница, параграф, предложение), на которые разбивается контент ресурса для анализа.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной метод идентификации бессмысленного контента, объединяющий два подхода.

  1. Получение Query Index, созданного на основе запросов, отправленных пользователями поисковой системе за определенный период. Индекс связывает термины (ключи) с запросами, которые их содержат.
  2. Получение ресурса с текстовым контентом.
  3. Расчет Language Model Score путем применения языковой модели к контенту.
  4. Расчет Query Stuffing Score. Это включает:
    • Для нескольких наиболее часто встречающихся терминов в контенте, расчет соотношения (ratio): количество запросов из индекса, связанных с этим термином и найденных во фразах ресурса, к общему количеству запросов в индексе, связанных с этим термином.
    • Генерация Query Stuffing Score на основе среднего значения (average) этих рассчитанных соотношений.
  5. Расчет Gibberish Score на основе Language Model Score и Query Stuffing Score.
  6. Принятие решения о модификации Ranking Score ресурса на основе Gibberish Score.

Claim 2 (Зависимый от 1): Детализирует расчет Language Model Score.

  1. Разбор контента на один или несколько Text Segments.
  2. Применение языковой модели к каждому сегменту для генерации оценки сегмента (segment score), основанной на вероятности появления последовательности слов в естественном языке.
  3. Генерация Language Model Score на основе этих оценок сегментов.

Claim 5 (Зависимый от 1): Уточняет метод расчета итогового Gibberish Score.

Расчет Gibberish Score определяется как минимальное значение (minimum score) из Language Model Score и Query Stuffing Score. Это означает, что ресурс должен пройти обе проверки, чтобы считаться качественным.

Claim 6 (Зависимый от 1): Описывает применение Gibberish Score с использованием пороговых значений.

  1. Удаление ресурса из ранжирования, если Gibberish Score меньше или равен первому пороговому значению (Threshold 1).
  2. Взвешивание (понижение) Ranking Score ресурса, если Gibberish Score больше Threshold 1, но меньше второго порогового значения (Threshold 2).
  3. Оставление Ranking Score без изменений, если Gibberish Score больше или равен Threshold 2.

Где и как применяется

Изобретение применяется на ключевых этапах обработки контента и формирования выдачи.

INDEXING – Индексирование и извлечение признаков
Основное применение патента. Во время индексирования система анализирует контент ресурса:

  1. Парсинг контента и извлечение текста, использование HTML-тегов (например, <p>) для идентификации Text Segments.
  2. Вычисление Language Model Score с использованием статистических языковых моделей.
  3. Вычисление Query Stuffing Score с использованием Query Index (который строится офлайн на основе логов запросов).
  4. Вычисление финального Gibberish Score. Этот балл сохраняется как признак качества документа в индексе.

RANKING / RERANKING – Ранжирование и Переранжирование
На этапе ранжирования система использует рассчитанный Gibberish Score для модификации итогового Ranking Score документа. В зависимости от пороговых значений (Claim 6), документ может быть удален из результатов, понижен или оставлен без изменений.

Входные данные:

  • Текстовый контент и HTML-разметка ресурса.
  • Языковые модели (например, N-gram модели).
  • Query Index.

Выходные данные:

  • Gibberish Score для ресурса.
  • Модифицированный Ranking Score или решение об исключении ресурса из ранжирования.

На что влияет

  • Конкретные типы контента: Влияет на любые ресурсы с текстовым контентом. Особенно сильно влияет на контент, сгенерированный автоматически: спиннинг статей, скрапинг и склейка контента, некачественные переводы.
  • Специфические запросы: Наибольшее влияние в нишах, где распространены попытки ранжирования по высокоценным ключевым словам с использованием низкокачественного контента.
  • Определенные форматы контента: Влияет на страницы, где текст представлен в виде параграфов или других сегментируемых блоков. Может меньше влиять на списки или меню, так как патент упоминает возможность фильтрации коротких фрагментов.

Когда применяется

  • При каких условиях работает алгоритм: Алгоритм применяется во время индексации контента для расчета Gibberish Score. Применение пенальти происходит во время ранжирования.
  • Триггеры активации: Пессимизация активируется, когда Gibberish Score падает ниже установленных порогов (Threshold 1 и 2). Это происходит при обнаружении статистических аномалий в языке или высокого Hit Ratio при анализе запросов.
  • Исключения и особые случаи: Патент упоминает, что фильтрация по Gibberish Score может быть отключена для URL-запросов или сайт-запросов (site queries), чтобы эти результаты возвращались независимо от оценки контента.

Пошаговый алгоритм

Процесс анализа ресурса можно разделить на три основные фазы.

Фаза 1: Предварительная обработка

  1. Получение ресурса.
  2. Парсинг и сегментация: Контент парсится для идентификации Text Segments. HTML-теги (например, <p>) используются для определения границ сегментов (например, параграфов).
  3. Фильтрация: Удаление HTML-тегов. Возможна фильтрация коротких фрагментов или последовательностей имен собственных.

Фаза 2: Расчет оценок

Модуль A: Расчет Language Model Score (LMS)

  1. Применение языковой модели: Для каждого сегмента рассчитывается вероятность того, что последовательность слов является естественным языком (используя N-gram модель).
  2. Нормализация: Исходные оценки сегментов нормализуются на основе их длины.
  3. Идентификация бессмысленных сегментов: Сегменты, чья нормализованная оценка не соответствует порогу, помечаются как gibberish.
  4. Агрегация LMS: Вычисляется итоговый LMS как функция двух метрик: (1) Доля терминов в бессмысленных сегментах к общему числу терминов; (2) Сумма оценок бессмысленных сегментов.

Модуль B: Расчет Query Stuffing Score (QSS)

  1. Идентификация частотных терминов: Определяются наиболее часто встречающиеся термины в ресурсе (например, Топ-2), исключая стоп-слова.
  2. Поиск в Query Index: Для каждого частотного термина система получает список всех известных запросов, содержащих этот термин.
  3. Поиск совпадений в тексте: Система проверяет, встречаются ли эти запросы в тексте ресурса в виде фраз, окружающих данный термин.
  4. Расчет Hit Ratio: Для каждого частотного термина рассчитывается соотношение: Количество найденных запросов / Общее количество запросов для этого термина в индексе.
  5. Агрегация QSS: Итоговая оценка рассчитывается как функция от среднего (average) и максимального (maximum) Hit Ratio среди проанализированных частотных терминов.

Фаза 3: Финальная оценка и применение

  1. Расчет Gibberish Score: LMS и QSS объединяются. В одном из вариантов реализации выбирается минимальное значение из двух оценок.
  2. Применение порогов: Gibberish Score сравнивается с порогами T1 и T2 для определения действия (удаление, понижение или без изменений).

Какие данные и как использует

Данные на входе

  • Контентные факторы: Сырой текст ресурса. Анализируется частотность терминов и последовательности слов (N-grams).
  • Структурные факторы: HTML-теги (<p>, <h1> и т.д.) используются для разделения контента на Text Segments.
  • Поведенческие факторы: Логи пользовательских запросов (query log) используются для офлайн-генерации Query Index.

Какие метрики используются и как они считаются

  • Вероятность N-gram: Статистическая вероятность последовательности слов, используемая в LMS.
  • Нормализованная оценка сегмента: Вероятность текста сегмента, деленная на его длину.
  • Hit Ratio (Коэффициент попаданий): Доля запросов из Query Index для данного термина, которые были найдены в тексте ресурса.
  • Language Model Score (LMS): Рассчитывается как функция от доли "бессмысленных" терминов и суммы оценок "бессмысленных" сегментов. В патенте приводится формула:

Выводы

  1. Двойная защита от спама: Google использует два независимых вектора для оценки качества контента: естественность языка (Language Model Score) и манипулятивное использование запросов (Query Stuffing Score). Провала по любому из направлений может быть достаточно для пессимизации, так как часто используется минимальное значение из двух оценок.
  2. Статистический анализ естественности языка: Система количественно оценивает, насколько текст похож на естественный язык, используя вероятностные модели (N-grams). Это позволяет алгоритмически выявлять машинно-сгенерированный, склеенный или плохо переведенный контент.
  3. Продвинутое обнаружение Keyword Stuffing: Обнаружение переоптимизации основано не на плотности ключевых слов, а на анализе присутствия реальных пользовательских запросов (из Query Index). Наличие слишком большого количества разных запросов, связанных с одним термином (высокий Hit Ratio), считается неестественным и является сильным индикатором спама.
  4. Важность структуры и сегментации: Анализ проводится на уровне Text Segments (например, абзацев). Это позволяет обнаруживать вставки бессмысленного текста и оценивать общую долю низкокачественного контента в документе.
  5. Жесткие меры пессимизации: Патент предусматривает строгие меры для контента с низким Gibberish Score, включая полное удаление из ранжирования или значительное понижение, в зависимости от пороговых значений.

Практика

Best practices (это мы делаем)

  • Приоритет естественного языка: Создавайте контент, который читается естественно, является грамматически правильным и связным. Это лучший способ обеспечить высокий Language Model Score, так как последовательности слов будут соответствовать статистическим ожиданиям языковой модели.
  • Контроль качества ИИ-контента и переводов: При использовании ИИ для генерации или перевода контента необходима тщательная редактура. Убедитесь, что результат не содержит неестественных языковых конструкций или статистических аномалий, которые могут быть классифицированы как gibberish.
  • Контекстуальное использование ключевых фраз: Интегрируйте ключевые слова и фразы органично. Избегайте создания текста, который выглядит как список поисковых запросов. Фокусируйтесь на раскрытии темы, а не на включении максимального количества точных формулировок запросов, чтобы избежать срабатывания Query Stuffing Score.
  • Использование чистой HTML-структуры: Используйте корректные теги (<p>, <h1>-<h6>) для логического структурирования контента. Это помогает системе корректно разделить текст на Text Segments для анализа.

Worst practices (это делать не надо)

  • Автоматическая генерация и спиннинг контента: Использование инструментов для автоматического рерайта (спиннинга), скрапинга и склейки контента крайне рискованно. Такие тексты часто имеют неестественные последовательности слов и будут обнаружены через низкий Language Model Score.
  • Query Stuffing (Набивка запросами): Вставка большого количества различных поисковых запросов в текст (например, перечисление всех возможных НЧ-вариаций). Это будет обнаружено через высокий Hit Ratio при расчете Query Stuffing Score.
  • Использование низкокачественного машинного перевода без редактуры: Публикация автоматически переведенного контента для захвата трафика на других языках приведет к классификации контента как gibberish из-за несоответствия языковой модели.
  • Склейка несвязанного контента (Content Splicing): Объединение фрагментов текста из разных источников без логической связи нарушает естественное течение текста и снижает Language Model Score.

Стратегическое значение

Патент подтверждает, что Google использует сложные статистические и математические методы для борьбы с контентным спамом. Качество контента — это не абстрактное понятие, а набор измеримых метрик. В контексте развития генеративного ИИ эти принципы остаются фундаментальными. SEO-стратегия должна базироваться на создании качественного, оригинального контента, который демонстрирует естественное владение языком и глубокое раскрытие темы, избегая любых форм манипулятивного или автоматизированного создания текста.

Практические примеры

Сценарий 1: Обнаружение Query Stuffing в описании услуги

  • Проблема: Компания по ремонту техники пытается ранжироваться по всем запросам, связанным с "ремонт iPhone". Текст на странице: "Нужен ремонт iPhone Москва? Мы делаем быстрый ремонт iPhone, качественный ремонт iPhone, замена стекла iPhone и ремонт iPhone дешево."
  • Анализ Google (согласно патенту):
    • Система определяет "ремонт" и "iPhone" как самые частотные термины.
    • Она обращается к Query Index и видит, что для этих ключей есть сотни запросов.
    • Система обнаруживает, что значительное количество этих разнообразных запросов точно совпадает с фразами в тексте.
    • Hit Ratio рассчитывается как аномально высокий, что приводит к низкому Query Stuffing Score.
  • Результат: Страница понижается в ранжировании.

Сценарий 2: Обнаружение спиннинга контента (Language Model Score)

  • Проблема: SEO-специалист использует инструмент для спиннинга статьи. Исходное предложение: "Быстрая доставка пиццы в центр города." Сгенерированный вариант: "Скоростное принесение пиццы в сердце города."
  • Анализ Google (согласно патенту):
    • Система анализирует сегмент с этим предложением.
    • Языковая модель (N-gram) анализирует последовательности слов. Вероятность фраз "Скоростное принесение" или "сердце города" в данном контексте низкая в корпусе естественного языка.
    • Оценка сегмента оказывается ниже порога, и он помечается как gibberish.
  • Результат: Если большая часть контента помечена как gibberish, общий Language Model Score будет низким, и страница будет пессимизирована.

Вопросы и ответы

Чем описанный механизм Query Stuffing отличается от простого анализа плотности ключевых слов?

Анализ плотности считает повторения одного термина. Механизм Query Stuffing Score значительно сложнее. Он проверяет, сколько *различных* реальных пользовательских запросов (из Query Index), связанных с этим термином, было вставлено в текст. Наличие множества разных вариаций запросов в одном блоке текста неестественно и является сильным индикатором спама (высокий Hit Ratio).

Что такое N-gram модель и как она определяет «бессмысленный» контент?

N-gram модель — это статистическая языковая модель, которая знает частотность последовательностей слов в естественном языке. Например, она знает, насколько часто слово "яблоко" следует за словом "зеленое". Если текст содержит много последовательностей слов с низкой вероятностью (например, результат плохого спиннинга или машинного перевода), модель присвоит ему низкую оценку (Language Model Score), классифицируя его как бессмысленный.

Может ли этот патент обнаруживать контент, сгенерированный современными ИИ (LLM)?

Патент был подан в 2009 году и ориентирован на более примитивные методы генерации. Современные LLM генерируют текст, который статистически может быть очень похож на естественный язык, поэтому им может быть сложнее получить низкий Language Model Score по этой методике. Однако механизм Query Stuffing Score все еще актуален, если ИИ-контент используется для массового перенасыщения текста ключевыми запросами без создания реальной ценности.

Насколько сильно может быть понижен сайт, если его контент признан бессмысленным?

Меры очень строгие. Патент описывает три уровня: полное удаление из ранжирования (если Gibberish Score очень низкий, ниже Threshold 1), значительное понижение (взвешивание Ranking Score, если оценка между Threshold 1 и Threshold 2), или отсутствие изменений (выше Threshold 2). Риск полного исчезновения страницы из поиска реален.

Как система использует HTML-теги в этом процессе?

HTML-теги, такие как <p> (параграф), <h1> (заголовок) или <br> (перенос строки), используются для разделения контента на Text Segments. Анализ (особенно Language Model Score) проводится на уровне этих сегментов, а затем агрегируется для всего ресурса. Корректная верстка помогает правильному анализу.

Что произойдет, если мой текст естественный, но я часто использую одно ключевое слово?

Если текст естественный, Language Model Score будет высоким. Система проверит частое слово через Query Stuffing Score. Если вы используете его в естественном контексте, а не вставляете множество разных поисковых запросов, содержащих это слово, Hit Ratio будет низким. В этом случае наказания по этому патенту, скорее всего, не последует.

Как формируется Query Index?

Query Index формируется офлайн путем анализа логов поисковых запросов пользователей за определенный период (например, месяц). Запросы фильтруются (удаляются стоп-слова, URL и т.д.) и индексируются по содержащимся в них терминам. Это позволяет системе знать все популярные формулировки запросов для любого ключевого слова.

Что означает, если система берет минимум из Language Model Score и Query Stuffing Score?

Это означает, что контент должен пройти обе проверки (Claim 5). Если текст написан идеально естественно (высокий LMS), но при этом перенасыщен поисковыми запросами (низкий QSS), итоговый Gibberish Score будет низким. И наоборот. Провала по любому из направлений достаточно для пессимизации.

Влияет ли этот алгоритм на локализованные версии сайта (переводы)?

Да, влияет. Если локализованная версия создана с помощью некачественного машинного перевода, она будет иметь низкий Language Model Score для соответствующего языка, так как сгенерированные фразы не будут соответствовать статистической модели этого языка. Это подчеркивает важность качественной локализации.

Что делать, если на странице много списков или таблиц с терминами?

Патент упоминает возможность фильтрации определенных типов контента перед анализом. Например, короткие фрагменты текста (как пункты меню) или последовательности имен собственных (как списки имен или адресов) могут быть исключены, так как они часто не представляют собой естественный язык в формате предложений, но и не являются спамом.

Похожие патенты

Как Google переписывает запросы на естественном языке для поиска более качественных результатов
Google использует систему для улучшения результатов поиска по запросам на естественном языке. Если первоначальная выдача не удовлетворяет требованиям качества (например, отсутствуют прямые ответы или релевантность низкая), система генерирует и тестирует альтернативные, переписанные версии запроса. Если альтернативная версия дает лучшие результаты, они заменяют или дополняют исходную выдачу.
  • US20170270159A1
  • 2017-09-21
  • Семантика и интент

  • SERP

Как Google использует специфические сигналы (частоту постинга, рекламу и популярность) для оценки качества блогов и борьбы с автоматизированным контентом
Google разработал систему для ранжирования блогов, которая вычисляет независимую от запроса Оценку Качества (Quality Score). Эта оценка учитывает сигналы популярности (подписки, CTR), авторитетности (Pagerank, ссылки), а также выявляет спам-паттерны: автоматизированную частоту и размер постов, расположение рекламы и ссылочные схемы. Финальный рейтинг определяется комбинацией этой оценки качества и стандартной релевантности.
  • US8244720B2
  • 2012-08-14
  • EEAT и качество

  • Антиспам

  • Индексация

Как Google использует LLM для генерации поисковых сводок (SGE), основываясь на контенте веб-сайтов, и итеративно уточняет ответы
Google использует Большие Языковые Модели (LLM) для создания сводок (AI-ответов) в результатах поиска. Для повышения точности и актуальности система подает в LLM не только запрос, но и контент из топовых результатов поиска (SRDs). Патент описывает, как система выбирает источники, генерирует сводку, проверяет факты, добавляет ссылки на источники (linkifying) и аннотации уверенности. Кроме того, система может динамически переписывать сводку, если пользователь взаимодействует с одним из источников.
  • US11769017B1
  • 2023-09-26
  • EEAT и качество

  • Ссылки

  • SERP

Как Google использует контент веб-страниц для генерации, верификации и адаптации AI-ответов в поиске (SGE/AI Overviews)
Google использует Большие Языковые Модели (LLM) для создания генеративных сводок (AI Overviews/SGE). Для обеспечения точности система не полагается только на знания LLM, а обрабатывает контент из актуальных результатов поиска (SRDs). Патент описывает архитектуру этого процесса: как выбираются источники, как генерируется сводка на их основе (Grounding), как проверяется информация для добавления ссылок (Verification), и как ответ адаптируется под контекст и действия пользователя.
  • US20250005303A1
  • 2025-01-02
  • SERP

  • EEAT и качество

  • Персонализация

Как Google использует категоризацию контента и запросов для уточнения релевантности и ранжирования результатов
Google использует систему для улучшения ранжирования, комбинируя стандартную текстовую релевантность с оценкой соответствия категории. Система определяет, насколько сильно документ принадлежит к определенным категориям и насколько сильно запрос соответствует этим же категориям. Если и документ, и запрос сильно совпадают по категории, результат получает повышение в ранжировании. Это особенно важно для E-commerce и контента с четкой структурой.
  • US7814085B1
  • 2010-10-12
  • Семантика и интент

  • SERP

Популярные патенты

Как Google использует анализ сопутствующих ссылок (co-citation) и нормализацию веса для определения связанных сайтов и конкурентов
Google анализирует структуру ссылок для поиска сайтов, связанных с выбранным документом и находящихся на том же уровне обобщения (например, конкурентов). Система определяет, на какие еще сайты ссылаются источники, цитирующие исходный документ (co-citation). Для повышения точности вес ссылок нормализуется: снижается влияние множественных ссылок с одного хоста и ссылок со страниц-каталогов (хабов).
  • US6754873B1
  • 2004-06-22
  • Ссылки

  • SERP

  • Техническое SEO

Как Google обрабатывает клики по ссылкам на мобильные приложения (App Deep Links) в результатах поиска
Google использует механизм клиентской обработки результатов поиска, ведущих в нативные приложения. Если у пользователя не установлено нужное приложение, система на устройстве автоматически подменяет ссылку приложения (App Deep Link) на эквивалентный веб-URL. Это гарантирует доступ к контенту через браузер и обеспечивает бесшовный пользовательский опыт.
  • US10210263B1
  • 2019-02-19
  • Ссылки

  • SERP

Как Google запоминает вопросы без авторитетного ответа и автономно сообщает его позже через Ассистента
Патент Google описывает механизм для обработки запросов, на которые в момент поиска нет качественного или авторитетного ответа. Система запоминает информационную потребность и продолжает мониторинг. Когда появляется информация, удовлетворяющая критериям качества (например, в Knowledge Graph), Google автономно доставляет ответ пользователю, часто встраивая его в следующий диалог с Google Assistant, даже если этот диалог не связан с исходным вопросом.
  • US11238116B2
  • 2022-02-01
  • Knowledge Graph

  • Семантика и интент

  • EEAT и качество

Как Google алгоритмически определяет и верифицирует языковые версии страниц, анализируя ссылки, контент и частоту обновлений
Google использует систему для автоматической идентификации связанных версий контента (например, переводов). Система анализирует ссылки между страницами и ищет «индикаторы связи» (названия языков в анкорах или флаги). Обнаруженная связь затем верифицируется с помощью машинного перевода и сравнения контента, а также анализа частоты обновлений. Это позволяет Google показывать пользователю наиболее подходящую языковую или региональную версию в поиске.
  • US8892596B1
  • 2014-11-18
  • Мультиязычность

  • Ссылки

  • SERP

Как Google использует время просмотра (Watch Time) и поведение пользователей для расчета независимой от запроса оценки качества видео
Google рассчитывает независимый от запроса сигнал качества (Q) для видео, анализируя корреляции между поведенческими метриками: временем просмотра, рейтингами и количеством просмотров. Система использует математические функции (Predictor и Voting) для моделирования качества и определения достоверности данных, а также активно фильтрует спам в рейтингах. Этот сигнал Q затем используется для ранжирования видео в поиске.
  • US8903812B1
  • 2014-12-02
  • Поведенческие сигналы

  • SERP

  • Антиспам

Как Google использует историю запросов, сделанных на Картах, для ранжирования локальных результатов и рекламы
Google анализирует, что пользователи ищут, когда просматривают определенную географическую область на карте (Viewport). Эта агрегированная история запросов используется для определения популярности локальных бизнесов и контента в этом конкретном районе. Результаты, которые часто запрашивались в этой области, особенно недавно, получают значительное повышение в ранжировании.
  • US9129029B1
  • 2015-09-08
  • Local SEO

  • Поведенческие сигналы

  • Свежесть контента

Как Google в Autocomplete динамически выбирает между показом общих категорий и конкретных подсказок в зависимости от «завершенности запроса»
Google анализирует «меру завершенности запроса» (Measure of Query Completeness) по мере ввода текста пользователем. Если намерение неясно и существует много вариантов продолжения (низкая завершенность, высокая энтропия), система предлагает общие категории (например, «Регионы», «Бизнесы»). Если намерение становится ясным (высокая завершенность, низкая энтропия), система переключается на конкретные подсказки или сущности.
  • US9275147B2
  • 2016-03-01
  • Семантика и интент

  • Поведенческие сигналы

  • Персонализация

Как Google использует анализ со-цитирования (Co-citation) для группировки результатов поиска по темам
Google использует механизм кластеризации для организации поисковой выдачи, особенно при неоднозначных запросах. Система анализирует, какие внешние страницы одновременно ссылаются на несколько результатов поиска (со-цитирование). На основе этого вычисляется показатель сходства, который учитывает и нормализует популярность страниц, чтобы точно сгруппировать результаты по конкретным темам (например, отделить «Saturn» как планету от «Saturn» как автомобиль).
  • US7213198B1
  • 2007-05-01
  • Ссылки

  • SERP

Как Google выбирает каноническую (основную) версию документа, основываясь на авторитетности источника и полноте контента
Google использует систему для выбора канонической (основной) версии документа среди его дубликатов. Система присваивает «приоритет авторитетности» каждой версии, основываясь на источнике (например, официальный издатель) и праве публикации. Основной версией выбирается та, которая имеет высокий авторитет и является полной. При отсутствии идеального варианта выбирается версия с наибольшим объемом информации (например, самая длинная или с наибольшим PageRank).
  • US8095876B1
  • 2012-01-10
  • EEAT и качество

  • Техническое SEO

  • Ссылки

Как Google A/B тестирует и оптимизирует сниппеты (заголовки, описания, изображения) для повышения CTR
Google использует механизм для оптимизации отображения контента (сниппетов). Система показывает разные варианты заголовков, описаний или изображений для одной и той же ссылки разным пользователям или на разных платформах. Затем она измеряет кликабельность (CTR) каждого варианта и выбирает наиболее эффективный для дальнейшего использования, учитывая также тип устройства пользователя.
  • US9569432B1
  • 2017-02-14
  • SERP

  • Поведенческие сигналы

  • Персонализация

seohardcore