Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Google

    Как Google выявляет переоптимизацию (Keyword Stuffing), анализируя плотность связанных фраз в документе

    DETECTING SPAM DOCUMENTS IN A PHRASE BASED INFORMATION RETRIEVAL SYSTEM (Обнаружение спам-документов в системе поиска информации на основе фраз)
    • US8078629B2
    • Google LLC
    • 2011-12-13
    • 2004-07-26
    2004 EEAT и качество Антиспам Патенты Google Семантика и интент

    Google использует статистический анализ для обнаружения спама и переоптимизации. Система определяет ожидаемое количество связанных концепций (фраз) в типичном документе. Если документ содержит неестественно большое количество связанных фраз по сравнению с нормой, он идентифицируется как спам (keyword stuffing) и понижается в результатах поиска.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает проблему обнаружения спам-документов в поисковой выдаче, в частности тех, которые используют технику «keyword stuffing» (перенасыщение ключевыми словами). Такие документы часто содержат коллекции популярных слов и фраз без осмысленного контента и создаются для привлечения трафика и показа рекламы («honeypots»). Изобретение предлагает механизм для автоматического выявления и фильтрации такого контента.

    Что запатентовано

    Запатентована система и метод для идентификации спам-документов на основе статистического анализа использования фраз. Суть изобретения заключается в том, что спам-документы содержат чрезмерное, статистически аномальное количество связанных фраз (Related Phrases) по сравнению с обычными документами. Система вычисляет ожидаемое и фактическое количество связанных фраз в документе и использует это отклонение как индикатор спама.

    Как это работает

    Система работает на базе инфраструктуры, которая определяет взаимосвязи между фразами на основе совместной встречаемости и Information Gain. Механизм обнаружения спама действует следующим образом:

    • Определение нормы: Анализируется корпус документов для определения Expected Number (E) — ожидаемого количества связанных фраз в типичном документе (например, медианное значение).
    • Анализ документа: Для конкретного документа подсчитывается Actual Number (N) — фактическое количество присутствующих в нем связанных фраз.
    • Сравнение и идентификация: N сравнивается с E. Если N значительно превышает E (например, на несколько стандартных отклонений или в несколько раз), документ помечается как спам.
    • Применение: Во время ранжирования документы, помеченные как спам (например, в SPAM_TABLE), понижаются в выдаче (down-weighted) или удаляются.

    Актуальность для SEO

    Высокая. Борьба с Keyword Stuffing, переоптимизированным и низкокачественным контентом (включая AI-сгенерированный спам) остается центральной задачей поиска. Фундаментальный принцип, описанный в патенте — использование статистического анализа совместной встречаемости связанных концепций для выявления неестественных паттернов — остается крайне актуальным для оценки качества контента.

    Важность для SEO

    Влияние на SEO критическое (9/10). Патент описывает конкретный механизм, направленный против классической техники переоптимизации. Он демонстрирует, что искусственное завышение плотности связанных терминов и фраз является детектируемым сигналом спама. Это подчеркивает высокий риск агрессивной переоптимизации (включая злоупотребление LSI-ключами) и важность создания естественного, сфокусированного контента.

    Детальный разбор

    Термины и определения

    Actual Number (N) of Related Phrases (Фактическое количество связанных фраз)
    Количество связанных фраз, фактически присутствующих в анализируемом документе.
    Expected Number (E) of Related Phrases (Ожидаемое количество связанных фраз)
    Статистически ожидаемое количество связанных фраз в нормальном документе. Патент предлагает использовать медиану (median) по корпусу.
    Good Phrase (Хорошая/Значимая фраза)
    Фраза, которая встречается достаточно часто и/или имеет выделенное использование (например, в заголовках, анкорном тексте) и предсказывает появление других фраз.
    Information Gain (Прирост информации)
    Метрика, измеряющая, насколько частота совместной встречаемости двух фраз превышает ожидаемую случайную частоту. Используется для определения связанности фраз.
    Keyword Stuffing / Honeypots
    Спам-документы, содержащие коллекции популярных слов и фраз с минимальным осмысленным содержанием.
    Related Phrases (Связанные фразы)
    Две фразы, у которых Information Gain превышает определенный порог, что указывает на семантическую связь.
    Related Phrase Bit Vector (Битовый вектор связанных фраз)
    Структура данных в индексе, указывающая, какие из связанных фраз также присутствуют в документе.
    SPAM_TABLE (Таблица спама)
    Хранилище идентификаторов документов, классифицированных как спам (упоминается в описании патента).
    Standard Deviation (Стандартное отклонение)
    Мера разброса количества связанных фраз в корпусе. Используется для определения статистической значимости отклонения N от E.

    Ключевые утверждения (Анализ Claims)

    Claim 1 (Независимый пункт): Описывает основной метод идентификации спам-документа на основе статистики фраз.

    1. Определение ожидаемого количества (E) связанных фраз для первой фразы в документе. Это включает анализ корпуса (обход индекса) для вычисления статистической базовой линии.
    2. Определение фактического количества (N) связанных фраз для этой первой фразы в анализируемом документе.
    3. Идентификация документа как спама путем сравнения N и E.

    Claim 2 (Зависимый от 1): Уточняет, что ожидаемое количество (E) может быть определено как медиана количества связанных фраз по проанализированным документам.

    Claim 4 (Зависимый от 1): Определяет статистический порог сравнения. Документ идентифицируется как спам, если N превышает E на величину, кратную стандартному отклонению E. Это подтверждает, что метод основан на обнаружении статистических аномалий.

    Claim 5 (Зависимый от 1): Определяет относительный порог. Документ идентифицируется как спам, если N превышает E в определенное константное число раз (например, N > 2*E).

    Claim 7 (Зависимый от 1): Определяет абсолютный порог. Документ идентифицируется как спам, если N превышает заранее определенное максимальное ожидаемое число (например, N > 100).

    Claim 8 (Зависимый от 1): Описывает применение метода к наиболее значимым фразам документа (например, Топ-3). Если N превышает E для всех этих значимых фраз, документ идентифицируется как спам. Это повышает точность обнаружения.

    Claim 16 (Независимый пункт): Описывает, как идентификация спама используется в процессе поиска.

    1. Получение запроса и извлечение релевантных документов с оценками релевантности.
    2. Определение того, был ли извлеченный документ идентифицирован как спам.
    3. Понижение (down-weight) оценки релевантности идентифицированных спам-документов.
    4. Ранжирование результатов по итоговым оценкам.

    Где и как применяется

    Изобретение применяется на двух ключевых этапах поисковой архитектуры.

    INDEXING – Индексирование и извлечение признаков
    Это основной этап применения патента.

    • Статистический анализ корпуса: Система анализирует использование фраз по всему индексу, чтобы вычислить глобальные метрики: Expected Number (E) и стандартное отклонение (SD). Это требует предварительной идентификации Related Phrases на основе Information Gain.
    • Обнаружение спама: Во время индексации конкретного документа система подсчитывает Actual Number (N) связанных фраз, сравнивает N с E и помечает спам-документы (например, в SPAM_TABLE).

    RANKING – Ранжирование / RERANKING – Переранжирование
    На финальных этапах ранжирования система проверяет, помечен ли документ как спам (проверка SPAM_TABLE). Если да, его оценка релевантности пессимизируется (down-weighted) или документ удаляется из результатов поиска.

    Входные данные:

    • Контент документа.
    • Индекс фраз (Good Phrases, Related Phrases, оценки Information Gain).
    • Статистика корпуса (Expected Number E, Standard Deviation SD).

    Выходные данные:

    • Идентификация спам-документов (SPAM_TABLE).
    • Измененные оценки релевантности во время ранжирования.

    На что влияет

    • Типы контента: В первую очередь влияет на документы, использующие техники «Keyword Stuffing» или являющиеся «Honeypots». Влияет на любой тип контента, где чрезмерное количество связанных терминов используется неестественным образом (MFA-сайты, дорвеи, низкокачественный переоптимизированный AI-контент).
    • Ниши и тематики: Наибольшее влияние в конкурентных нишах (например, e-commerce, партнерский маркетинг, YMYL), где часто встречается перенасыщение ключевыми словами.

    Когда применяется

    • Условия работы: Обнаружение спама выполняется во время индексации каждого документа. Пенализация применяется во время ранжирования для каждого запроса.
    • Триггеры активации и пороговые значения: Ключевым триггером является статистическая аномалия: когда Actual Number (N) связанных фраз значительно превышает Expected Number (E). Патент упоминает несколько вариантов порогов (Claims 4, 5, 7):
      • Превышение E на величину, кратную стандартному отклонению (например, 5*SD).
      • Превышение E в константное число раз (например, в 2 раза).
      • Превышение абсолютного максимума (например, 100 связанных фраз).
    • Особые случаи: Для повышения точности может потребоваться выполнение условия превышения порога для нескольких значимых фраз документа (например, для топ-3) (Claim 8).

    Пошаговый алгоритм

    Процесс А: Предварительные вычисления и Статистический анализ корпуса (Офлайн/Периодически)

    1. Индексация фраз: Идентификация Good Phrases и расчет Information Gain для определения Related Phrases.
    2. Сбор статистики корпуса: Обход индекса документов. Для каждой фразы в каждом документе подсчитывается количество связанных с ней фраз, также присутствующих в документе.
    3. Расчет базовых метрик: Определение Expected Number (E) (например, медианы) количества связанных фраз и стандартного отклонения (SD).

    Процесс Б: Обнаружение спама (Во время индексации документа)

    1. Анализ документа: Идентификация всех Good Phrases в документе.
    2. Идентификация значимых фраз (Опционально): Определение наиболее значимых фраз в документе (например, топ-3).
    3. Подсчет связанных фраз: Для каждой (значимой) фразы определяется Actual Number (N) связанных фраз, присутствующих в этом же документе (например, с помощью Related Phrase Bit Vector).
    4. Сравнение с порогом: Сравнение N и E. Используются пороги, например: (N > E + 5*SD) ИЛИ (N > 2*E) ИЛИ (N > 100).
    5. Принятие решения: Если порог превышен для достаточного количества фраз, документ помечается как спам.
    6. Сохранение статуса: Документ добавляется в SPAM_TABLE.

    Процесс В: Применение пенальти (Во время поиска/ранжирования)

    1. Получение результатов поиска: Система поиска возвращает набор релевантных документов с их оценками.
    2. Проверка статуса спама: Каждый документ проверяется по SPAM_TABLE.
    3. Пенализация: Если документ найден в SPAM_TABLE, его оценка релевантности понижается (down-weighted) или документ удаляется из выдачи.
    4. Финальное ранжирование: Результаты сортируются по итоговым оценкам.

    Какие данные и как использует

    Данные на входе

    • Контентные факторы: Текст документа используется для идентификации фраз и подсчета их совместной встречаемости.
    • Структурные факторы: (Косвенно). При идентификации Good Phrases на начальном этапе индексации (в базовой системе, на которой основан этот патент) учитывается выделение текста (жирный шрифт, анкорный текст и т.д.) как «interesting instances» (интересные вхождения).

    Какие метрики используются и как они считаются

    • Information Gain (I(j,k)): Рассчитывается как отношение фактической совместной встречаемости к ожидаемой. Используется для определения Related Phrases.
    • Expected Number (E) of Related Phrases: Статистическая метрика (например, медиана) количества связанных фраз в документах корпуса.
    • Actual Number (N) of Related Phrases: Фактическое количество связанных фраз в анализируемом документе.
    • Standard Deviation (SD): Стандартное отклонение от E.
    • Пороговые значения:
      • Statistical Deviation: N > E + (Multiple * SD).
      • Constant Multiple: N > (Multiple * E).
      • Absolute Maximum: N > Threshold (например, 100).

    Выводы

    1. Спам определяется через статистические аномалии. Система ищет документы, которые статистически сильно отличаются от нормы по количеству используемых связанных концепций (фраз). Это позволяет выявлять Keyword Stuffing на более сложном уровне, чем простой подсчет плотности слов.
    2. Естественность контента как эталон. Система использует статистику по всему корпусу (Expected Number E) как эталон естественного использования языка. Значительные отклонения от этого эталона считаются манипуляцией.
    3. Чрезмерная широта как индикатор спама. Документы, которые пытаются охватить неестественно большое количество связанных тем или сущностей поверхностно, рискуют быть классифицированными как спам. Это подчеркивает важность тематической фокусировки.
    4. Многофакторная проверка для надежности. Патент предлагает проверять не одну, а несколько (например, три) наиболее значимых фраз в документе (Claim 8), чтобы убедиться, что аномалия носит системный характер, снижая вероятность ложных срабатываний.
    5. Разделение обнаружения и пенализации. Обнаружение спама происходит на этапе индексации (в SPAM_TABLE), а пенализация (понижение relevance score) применяется в реальном времени во время ранжирования.

    Практика

    Best practices (это мы делаем)

    • Фокус на естественности текста и глубине темы. Создавайте контент, который естественно использует релевантные фразы и концепции. Текст должен быть написан для людей. Использование связанных фраз должно служить для глубокого раскрытия темы, а не для поверхностного упоминания терминов.
    • Умеренное использование связанных концепций (LSI). Используйте синонимы, связанные термины и сущности там, где это оправдано контекстом и улучшает читабельность. Избегайте искусственного добавления терминов, если они не несут смысловой нагрузки.
    • Поддержание тематической фокусировки. Документ должен быть сфокусирован на основной теме. Избегайте создания контента, который пытается ранжироваться по слишком большому количеству тем одновременно. Глубина важнее широты.

    Worst practices (это делать не надо)

    • Keyword Stuffing (Переспам ключами). Вставка списков связанных ключевых слов, синонимов или фраз в текст, футер или скрытые блоки в попытке охватить все возможные варианты запросов крайне опасна и является прямой целью этого патента.
    • Агрессивное внедрение LSI-ключей и сущностей. Попытки внедрить все «LSI-ключи» или связанные сущности, найденные инструментами семантического анализа (например, SurferSEO, Clearscope), могут привести к аномально высокому числу Related Phrases и активации этого статистического фильтра.
    • Низкокачественный AI-генерируемый контент. Контент, сгенерированный с помощью ИИ, настроенного на максимальное включение связанных сущностей и фраз без контроля качества и естественности, может легко попасть под этот фильтр из-за неестественно высокой плотности концепций.
    • Создание «Honeypot» страниц. Создание страниц, состоящих из списков популярных или высокочастотных связанных терминов для привлечения трафика.

    Стратегическое значение

    Патент подтверждает, что Google использует сложные статистические методы и анализ фраз (а не просто отдельных слов) для оценки качества контента и борьбы со спамом. Это не просто подсчет слов, а анализ взаимосвязей между концепциями и обнаружение статистических аномалий. Стратегия SEO должна фокусироваться на естественности, качестве и глубине проработки темы. Понимание того, что переоптимизация может быть обнаружена статистически, критически важно для долгосрочной стратегии.

    Практические примеры

    Сценарий: Обнаружение переоптимизированной страницы категории E-commerce.

    1. Ситуация: SEO-специалист оптимизирует страницу категории «Беговые кроссовки». Чтобы повысить релевантность, он добавляет в нижнюю часть страницы большой блок текста.
    2. Действия специалиста: В этот блок он включает сотни связанных фраз: названия десятков брендов (Nike, Adidas, Saucony, Brooks), типы пронации (нейтральная, гиперпронация), типы покрытия (асфальт, трейл, стадион), технологии амортизации и т.д.
    3. Действие алгоритма: Система анализирует корпус и определяет, что ожидаемое число связанных фраз (E) для этой тематики равно 15. Во время индексации страницы она подсчитывает фактическое количество связанных фраз и получает Actual Number (N)=150.
    4. Результат: Поскольку N (150) значительно превышает E (15) (например, N > 2*E и N > 100), документ помечается как спам (Keyword Stuffing) и добавляется в SPAM_TABLE. При ранжировании эта страница будет понижена в выдаче.

    Вопросы и ответы

    Чем этот механизм отличается от традиционного обнаружения keyword stuffing?

    Традиционное обнаружение фокусируется на частоте повторения одного и того же термина. Этот патент фокусируется на количестве различных, но семантически связанных терминов (фраз), присутствующих в одном документе. Это гораздо более продвинутый способ, поскольку он выявляет попытки переспама даже при использовании синонимов и связанных терминов.

    Как этот патент влияет на использование LSI-ключевых слов и инструментов оптимизации контента (например, SurferSEO)?

    Он напрямую наказывает за злоупотребление LSI-ключами (которые по сути являются Related Phrases). Агрессивное следование рекомендациям инструментов оптимизации для включения всех предложенных терминов может привести к тому, что Actual Number (N) будет слишком высоким, и система пометит страницу как спам. Используйте эти инструменты для поиска идей, а не для неестественного насыщения текста.

    Как система определяет, какие фразы являются «связанными» (Related Phrases)?

    Связь определяется через метрику Information Gain. Две фразы считаются связанными, если они встречаются вместе значительно чаще, чем ожидалось бы при случайном распределении. В патенте упоминается возможность использования высокого порога Information Gain для определения сильной связи.

    Как Google рассчитывает «ожидаемое количество» (Expected Number E) связанных фраз?

    Система проводит статистический анализ всего корпуса документов (или значительной выборки). Она обходит индекс, подсчитывает количество связанных фраз в каждом документе и вычисляет среднее статистическое значение. Патент предлагает использовать медиану (50-й процентиль) в качестве Expected Number E.

    Какое количество связанных фраз является безопасным?

    Патент не дает точного числа, так как система основана на статистике корпуса. Однако в тексте описания патента упоминается, что обычный документ имеет порядка 8-20 связанных фраз, тогда как спам — 100-1000. Ключевым является не абсолютное число, а отклонение от нормы (E). Безопасный подход — не превышать E более чем в 2 раза или на несколько стандартных отклонений.

    Может ли длинная и качественная статья быть ошибочно помечена как спам?

    Теоретически это возможно, но маловероятно для естественно написанного контента. Система использует статистические пороги (например, 5 стандартных отклонений), предназначенные для выявления экстремальных выбросов. Кроме того, проверка может требовать превышения порога для нескольких значимых фраз (Claim 8), что снижает вероятность ложных срабатываний.

    Как этот механизм обнаруживает AI-сгенерированный контент?

    Если AI-контент генерируется с целью включить максимальное количество релевантных сущностей и ключевых фраз (что часто делается для SEO), он может иметь неестественно высокую плотность связанных концепций. Этот статистический анализ может обнаружить такую аномалию, помечая AI-контент как Keyword Stuffing, даже если текст грамматически корректен.

    Что происходит, когда документ помечается как спам?

    Обнаружение происходит во время индексации, и документ заносится в SPAM_TABLE. Во время выполнения поискового запроса, если этот документ попадает в выдачу, система проверяет таблицу. Если документ в ней есть, его оценка релевантности значительно понижается (down-weighted) или он полностью удаляется из результатов.

    Применяется ли этот механизм ко всему сайту или только к отдельным страницам?

    В патенте описан механизм, применяемый на уровне отдельных документов (страниц). Анализируется количество связанных фраз внутри конкретного документа. Однако, если большинство страниц на сайте будут идентифицированы как спам по этому критерию, это, вероятно, повлияет на общую оценку качества сайта.

    Как этот патент соотносится с современными алгоритмами, использующими сущности (Entities) и векторы?

    Патент описывает раннюю реализацию этой концепции на основе фраз (n-грамм). Современные системы (BERT, MUM) достигают аналогичных целей с помощью более сложных методов, таких как анализ совместной встречаемости сущностей и анализ векторной близости. Однако базовая идея остается той же: статистический анализ плотности связанных концепций для выявления неестественного контента.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.