Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Google

    Как поисковые системы могут автоматически определять связанные термины и строить тематические иерархии, анализируя аннотации ссылок

    SYSTEM AND METHOD OF AUTOMATIC DISCOVERY OF TERMS IN A DOCUMENT THAT ARE RELEVANT TO A GIVEN TARGET TOPIC (Система и метод автоматического обнаружения терминов в документе, релевантных заданной целевой теме)
    • US6651058B1
    • Google LLC
    • 2003-11-18
    • 1999-11-15
    Knowledge Graph Патенты Google Семантика и интент Ссылки

    Анализ патента IBM (1999 г.), описывающего трехэтапную систему для определения тематически связанных терминов. Система анализирует совместную встречаемость терминов в метаданных гиперссылок (анкорах и окружающем тексте) по всему корпусу документов. Затем она строит иерархию обобщения/специализации (таксономию) для фильтрации ложных связей и подтверждения истинной релевантности.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает проблему автоматического обнаружения терминов, релевантных заданной целевой теме (Target Topic), в больших объемах неструктурированных данных (например, WWW). Цель — повысить точность определения релевантности и отфильтровать шум, ложные ассоциации (false relevance) и нерелевантные термины, которые часто присутствуют в веб-документах и могут снижать качество стандартного анализа совместной встречаемости.

    Что запатентовано

    Запатентована автоматическая система майнинга (automatic mining system), работающая в три этапа. Первый этап извлекает базовые термины. Второй этап выявляет потенциальных кандидатов с помощью интеллектуального анализа ассоциаций (association mining), фокусируясь на метаданных гиперссылок (hyperlink metadata или annotations). Третий этап фильтрует результаты и уточняет релевантность путем автоматического построения иерархии обобщения-специализации (Generalization-Specialization Hierarchy).

    Как это работает

    Система функционирует следующим образом:

    • Обнаружение новых терминов (New Terms Discoverer): Извлечение базовых терминов из документов, например, путем распознавания паттернов и отношений в тексте.
    • Обнаружение терминов-кандидатов (Candidate Terms Discoverer): Анализ метаданных гиперссылок (анкоров и окружающего текста). Применяется association mining для поиска терминов, которые часто встречаются вместе в этих аннотациях в разных документах. Важно, что частота внутри одного документа игнорируется.
    • Обнаружение релевантных терминов (Relevant Terms Discoverer): Фильтрация стоп-слов и построение иерархии терминов (от общего к частному), например, с использованием модели LGG (Least General Generalization). Термин подтверждается, если он встраивается в таксономию целевой темы.

    Актуальность для SEO

    Низкая/Средняя. Патент подан в 1999 году компанией IBM. Он описывает фундаментальные концепции информационного поиска (анализ ссылок, построение таксономий), которые остаются актуальными. Однако конкретные методы реализации, описанные в патенте (например, простые ассоциативные правила и модель LGG), значительно устарели и в современных поисковых системах заменены нейросетевыми подходами (векторные представления, трансформеры).

    Важность для SEO

    Среднее влияние (6.5/10). Патент имеет значительное концептуальное значение для SEO. Он подтверждает фундаментальную важность анкорного текста и окружающего контекста (Link Annotations) как источника данных для определения тематических связей. Он также подчеркивает важность семантической иерархии контента (обобщение/специализация). Хотя он не дает прямого понимания современных алгоритмов ранжирования, он подкрепляет стратегии семантического SEO и оптимизации контекста ссылок.

    Детальный разбор

    Термины и определения

    Association Mining (Интеллектуальный анализ ассоциаций)
    Процесс поиска часто встречающихся вместе наборов элементов и выявления ассоциативных правил (association rules) между ними. Применяется для поиска терминов, которые часто встречаются вместе в метаданных гиперссылок.
    Candidate Terms Discoverer (Обнаружитель терминов-кандидатов)
    Второй этап системы. Выявляет потенциально релевантные термины на основе частоты их совместной встречаемости в метаданных гиперссылок.
    Duality (Двойственность)
    Концепция, используемая на первом этапе для итеративного уточнения как наборов связанных пар терминов (отношений), так и паттернов их появления в тексте.
    Generalization-Specialization Hierarchy (Иерархия обобщения-специализации)
    Модель релевантности (таксономия). Представляет иерархические отношения между терминами (например, «MacBook» является специализацией «Ноутбук»). Используется для финальной валидации релевантности.
    Hyperlink Metadata / Annotation (Метаданные / Аннотация гиперссылки)
    Описание гиперссылки, предоставленное страницей, которая ее содержит. Включает анкорный текст (anchor text) и свободный текст, окружающий гиперссылку. Ключевой источник данных для анализа ассоциаций.
    LGG (Least General Generalization / Наименьшее Общее Обобщение)
    Техника, используемая на третьем этапе для автоматического построения Generalization-Specialization Hierarchy.
    New Terms Discoverer (Обнаружитель новых терминов)
    Первый этап системы. Обнаруживает базовые термины в документе путем извлечения паттернов и отношений.
    Overgeneralization (Сверхобобщение)
    Состояние, когда обобщенный термин (LGG) слишком широк и его совместная встречаемость с его специализацией падает ниже определенного порога (t).
    Relevant Terms Discoverer (Обнаружитель релевантных терминов)
    Третий этап системы. Фильтрует термины-кандидаты для устранения ложной релевантности (false relevance).

    Ключевые утверждения (Анализ Claims)

    Claim 1, 14, 18 (Независимые пункты): Описывают основную трехэтапную архитектуру системы автоматического обнаружения релевантных терминов.

    1. Система идентифицирует термины в документе (New terms discoverer).
    2. Система идентифицирует потенциально релевантные термины (Candidate terms discoverer).
    3. Система идентифицирует финальные релевантные термины путем фильтрации ложной релевантности (Relevant terms discoverer).

    Ключевая деталь реализации (встроена в Claims 1, 14, 18): Определяет механизм работы Candidate terms discoverer.

    • Он включает модуль ассоциаций (association module), который выполняет статистический анализ *независимо от частоты встречаемости терминов внутри одного документа*.
    • Он включает модуль фильтрации (filtering module), который отбирает ассоциативные правила, чья релевантность превышает заданный порог.

    Это критически важный аспект: система фокусируется на том, в скольких разных документах термины встречаются вместе (в метаданных ссылок), а не на том, сколько раз они повторяются на одной странице. Это механизм защиты от манипуляций типа keyword stuffing.

    Claim 8, 11 (Зависимые): Уточняют, что Candidate terms discoverer использует metadata extractor для идентификации метаданных гиперссылок (hypertext link metadata).

    Claim 12 (Зависимый): Уточняет состав Relevant terms discoverer.

    • Он включает фильтр стоп-слов (stop word filter).
    • Он включает систему для автоматического построения иерархии обобщения терминов (generalization hierarchy of terms).

    Где и как применяется

    Изобретение в первую очередь относится к этапам глубокого анализа и структурирования контента после его сбора.

    INDEXING – Индексирование и извлечение признаков
    Это основной этап применения патента. Во время индексации система анализирует корпус документов для построения моделей релевантности и извлечения признаков.

    • Извлечение терминов: Происходит майнинг паттернов и отношений из текста (Этап 1).
    • Анализ ссылок и метаданных: Извлекаются и анализируются Hyperlink Metadata (анкоры и контекст) (Этап 2). Это ключевой компонент, использующий ссылочную структуру для понимания семантики.
    • Построение Таксономии: Система автоматически строит Generalization-Specialization Hierarchy (Этап 3) для валидации релевантности.

    QUNDERSTANDING – Понимание Запросов
    Построенные иерархии и наборы релевантных терминов могут использоваться для лучшего понимания контекста запроса пользователя или для его расширения семантически связанными концепциями.

    Входные данные:

    • Корпус документов (например, веб-страницы).
    • Заданная целевая тема (Target Topic).
    • Пороги для ассоциативных правил (c) и проверки обобщения (t).

    Выходные данные:

    • Набор релевантных терминов (RT), связанных с целевой темой.
    • Построенная Generalization-Specialization Hierarchy (таксономия).

    На что влияет

    • Анализ ссылок: Напрямую влияет на то, как системы оценивают контекст, предоставляемый гиперссылками (внутренними и внешними). Патент явно указывает на использование аннотаций ссылок как основного источника данных для определения тематических ассоциаций.
    • Понимание контента: Влияет на способность системы понимать семантическую структуру контента и иерархию тем в документе.
    • Типы контента: Применимо к любому контенту, содержащему текст и гиперссылки, особенно к контенту с богатой структурой ссылок.

    Когда применяется

    • Условия работы: Алгоритм применяется в процессе индексирования и анализа корпуса документов. Это не процесс реального времени, происходящий во время запроса.
    • Цель: Применяется для автоматического построения модели релевантности для темы из неструктурированных данных.

    Пошаговый алгоритм

    Процесс работы системы разделен на три основных этапа.

    Этап 1: Обнаружение новых терминов (New Terms Discoverer)

    1. Майнинг паттернов и отношений: Итеративное обнаружение пар связанных терминов (например, Автор/Книга) и шаблонов их появления в тексте, используя концепцию двойственности (Duality).
    2. Майнинг новых связей: Анализ фраз, содержащих связанные пары. Применение модулей знаний (стемминг, синонимы, знание предметной области) для классификации и валидации отношений.
    3. Выбор терминов: Извлечение конкретных терминов из обнаруженных отношений.

    Этап 2: Обнаружение терминов-кандидатов (Candidate Terms Discoverer)

    1. Извлечение метаданных (Metadata Extractor): Идентификация и извлечение метаданных гиперссылок (анкоры и окружающий текст) из документов.
    2. Векторизация документов (Document Vector Module): Создание вектора для каждого документа на основе терминов в его метаданных гиперссылок. Дубликаты и частота внутри документа игнорируются.
    3. Майнинг ассоциаций (Association Module): Вычисление правил ассоциаций (Association Rules) на основе совместной встречаемости терминов по всему корпусу документов.
    4. Фильтрация правил (Filtering Module): Отбор сильных правил ассоциаций, у которых метрики релевантности (например, Support или Confidence) превышают заданный порог (c). Формирование набора терминов-кандидатов (CT).

    Этап 3: Обнаружение релевантных терминов (Relevant Terms Discoverer)

    1. Фильтрация стоп-слов (Stop Word Filter): Удаление общеупотребительных слов (например, www, html, com) из набора CT.
    2. Построение иерархии (Generalization-Specialization Hierarchy): Автоматическое построение модели релевантности.
      • Использование модели LGG (Least General Generalization) для генерации обобщающих терминов.
      • Валидация релевантности: Термин-кандидат считается релевантным, если он является специализацией термина, уже присутствующего в модели.
      • Проверка сверхобобщения (Overgeneralization): Убедиться, что обобщения (LGG) не являются слишком общими. Это делается путем проверки совместной вероятности (joint probability) обобщения и его специализации. Если вероятность ниже порога (t), обобщение отклоняется.

    Какие данные и как использует

    Данные на входе

    • Контентные факторы:
      • Текст документа: Используется на Этапе 1 для майнинга шаблонов и отношений.
    • Ссылочные / Структурные факторы (Критически важные):
      • Метаданные гиперссылок (Hyperlink Metadata / Link Annotations): Анкорный текст и окружающий текст ссылок. Это основной источник данных для Этапа 2 (анализ ассоциаций).
      • Структура гиперссылок используется для извлечения метаданных.

    Какие метрики используются и как они считаются

    • Совместная встречаемость (Co-occurrence): Измеряется количество документов, содержащих термины в метаданных гиперссылок. Патент явно указывает (Claims 1, 14, 18), что частота встречаемости внутри одного документа игнорируется.
    • Метрики правил ассоциаций: Используются для оценки силы связи между терминами (например, Support и Confidence). Обозначаются как метрика релевантности rel(t->T).
    • Порог (c): Заданный порог для фильтрации сильных правил ассоциаций.
    • Модель LGG (Least General Generalization): Алгоритмическая модель для вывода иерархической структуры.
    • Совместная вероятность (Joint Probability): Метрика pS(LGG, rt) используется на Этапе 3 для проверки сверхобобщения. Сравнивается с порогом (t).

    Выводы

    1. Аннотации ссылок как ключевой источник семантики: Патент определяет метаданные гиперссылок (анкоры и окружающий текст) как критически важные сигналы для выявления тематической релевантности и взаимосвязей между терминами. Это подтверждает важность контекста ссылок в информационном поиске.
    2. Фокус на междокументном анализе ассоциаций: Для установления семантической связи система полагается на совместное появление терминов в аннотациях ссылок разных документов. Частота упоминания термина внутри одного документа явно игнорируется на этапе майнинга ассоциаций (защита от keyword stuffing).
    3. Автоматическое построение таксономий (Иерархий): Описан механизм (модель LGG) для автоматического построения Generalization-Specialization Hierarchy. Это позволяет системе структурировать знания о теме и валидировать релевантность, проверяя, вписывается ли термин в иерархию.
    4. Структурная валидация релевантности: Релевантность определяется не только статистической корреляцией (совместной встречаемостью), но и структурной валидацией с использованием таксономии, чтобы отфильтровать ложные срабатывания.

    Практика

    Best practices (это мы делаем)

    • Оптимизация контекста внутренних и внешних ссылок (Link Annotations): Сосредоточьтесь на использовании описательного, разнообразного и контекстуально релевантного анкорного текста и окружающего текста. Согласно Этапу 2 патента, это напрямую влияет на то, как система ассоциирует термины с темой.
    • Разработка иерархической архитектуры сайта (Generalization-Specialization): Создавайте четкую структуру сайта и контент-стратегию, которая отражает логическую иерархию тем. Страницы-хабы (Обобщение) должны ссылаться на поддерживающие статьи (Специализация). Такая структура помогает валидировать релевантность (Этап 3).
    • Построение Topical Authority через ассоциации: Обеспечивайте широкий тематический охват и используйте семантически связанные термины в перелинковке. Это усиливает правила ассоциаций (Association Rules), основанные на междокументном анализе, демонстрируя связь ваших ключевых терминов с общей темой.

    Worst practices (это делать не надо)

    • Чрезмерный фокус на плотности ключевых слов (Keyword Stuffing): Патент явно игнорирует внутридокументную частоту для задачи обнаружения ассоциаций. Оптимизация под плотность ключевых слов на одной странице неэффективна для этого механизма.
    • Использование общих или неинформативных анкоров: Использование анкоров типа «нажмите здесь», «подробнее» предоставляет скудные метаданные для модуля ассоциаций и затрудняет обнаружение тематических связей.
    • Плоская структура сайта или отсутствие иерархии: Отсутствие организации контента в иерархические категории затрудняет системам проверку релевантности с использованием моделей обобщения/специализации (Этап 3).

    Стратегическое значение

    Этот ранний патент (IBM, 1999) иллюстрирует фундаментальные концепции перехода от анализа ключевых слов к пониманию тем, сущностей и их взаимосвязей (предвосхищая Графы Знаний). Он подтверждает стратегическую важность контекста ссылок не только как сигналов авторитетности, но и как основного источника семантической информации и построения таксономий. Долгосрочная SEO-стратегия должна фокусироваться на создании четкой информационной архитектуры и управлении контекстом ссылок.

    Практические примеры

    Сценарий: Стратегия внутренней перелинковки для E-commerce (Тема: Бег)

    Цель: Убедиться, что поисковая система понимает иерархию и ассоциации в категории «Бег».

    Действия (Этап 3 — Иерархия):

    • Убедиться, что структура URL и навигация отражают иерархию: /sport/running (Обобщение) -> /sport/running/shoes (Специализация) и /sport/running/accessories (Специализация).

    Действия (Этап 2 — Ассоциации):

    • На странице категории «Беговые кроссовки» разместить блок «Сопутствующие товары».
    • Ссылка на «Гидратационные рюкзаки» должна использовать описательный контекст (Link Annotation). Например, анкорный текст «Аксессуары для бега на длинные дистанции» или заголовок блока «Подготовка к марафону».
    • Повторить эту практику на других релевантных страницах сайта.

    Ожидаемый результат: Модуль ассоциаций идентифицирует совместную встречаемость терминов «Кроссовки» и «Гидратационные рюкзаки» в метаданных гиперссылок по всему сайту. Иерархическая структура подтверждает, что эта связь значима в контексте общей темы «Бег».

    Вопросы и ответы

    Что такое «Метаданные гиперссылки» (Hyperlink Metadata) или «Аннотация ссылки» (Link Annotation)?

    В контексте патента это описание ссылки на странице-доноре. Сюда входит анкорный текст (anchor text), а также свободный текст, окружающий гиперссылку (околоссылочный текст). Система использует эти данные как ключевой источник для поиска связанных терминов и понимания темы целевой страницы.

    Игнорирует ли система плотность ключевых слов на странице?

    Да, для конкретной задачи анализа ассоциаций (Этап 2). Патент явно указывает (в Claims 1, 14, 18), что статистический анализ выполняется «независимо от частоты встречаемости терминов внутри одного документа». Система фокусируется на том, в скольких разных документах термины встречаются вместе, а не на том, сколько раз они повторяются на одной странице.

    Что такое «Иерархия обобщения/специализации» и зачем она нужна?

    Это таксономия, которая показывает отношения между терминами (например, «Пудель» — это специализация «Собака»). Система использует эту иерархию на третьем этапе для валидации релевантности. Если два термина часто встречаются вместе (Этап 2), но между ними нет логической иерархической связи (Этап 3), система может посчитать эту связь ложной или незначимой.

    Как система строит эту иерархию?

    Патент предлагает использовать автоматический метод, такой как модель Наименьшего Общего Обобщения (LGG — Least General Generalization). Система итеративно анализирует термины и выводит иерархическую структуру без заранее определенной таксономии.

    Актуален ли этот патент, учитывая, что он подан в 1999 году IBM?

    Концептуально — да, технически — нет. Фундаментальные идеи (анализ контекста ссылок и построение иерархий/онтологий) высоко актуальны для современного поиска и Графов Знаний. Однако конкретные алгоритмы (например, LGG, простые ассоциативные правила) устарели и были заменены более сложными нейросетевыми моделями.

    Как этот патент влияет на стратегию внутренней перелинковки?

    Он подтверждает, что внутренняя перелинковка критически важна для обучения поисковых систем связям между концепциями. SEO-специалисты должны стратегически использовать контекст ссылок (анкоры и окружающий текст), чтобы явно указывать на тематические ассоциации (Этап 2) и иерархические связи (Этап 3) между страницами.

    Что происходит на первом этапе (New Terms Discoverer)?

    Первый этап предназначен для определения начального набора терминов и уменьшения шума. Он включает майнинг шаблонов и отношений, например, автоматическое обнаружение пар (Автор, Книга) или (Компания, Продукт) в тексте. Это позволяет системе сфокусироваться на значимых терминах или сущностях.

    Что такое «Сверхобобщение» (Overgeneralization) и как система с ним борется?

    Сверхобобщение происходит, когда обобщающий термин слишком широк (например, обобщение «MacBook» до «Вещь» вместо «Ноутбук»). Система проверяет это, измеряя совместную вероятность (joint probability) обобщения и специализации. Если она ниже порога (t), термин считается сверхобобщенным и не добавляется в модель релевантности.

    В чем разница между Этапом 2 и Этапом 3?

    Этап 2 (Кандидаты) ищет корреляцию: какие термины часто появляются вместе в аннотациях ссылок (горизонтальные связи). Этап 3 (Валидация) ищет структуру и значимость: связаны ли эти термины логически через иерархию (вертикальные связи). Этап 2 находит потенциальные связи, а Этап 3 подтверждает, что они имеют смысл.

    Как использовать инсайты из этого патента для улучшения Topical Authority?

    Необходимо сосредоточиться на двух аспектах: Иерархия и Ассоциации. Создавайте четкую иерархическую структуру контента (Хабы и Поддерживающие статьи) и связывайте их информативными ссылками. Убедитесь, что в анкорах и околоссылочном тексте (внутренних и внешних) используются семантически связанные термины, чтобы система могла обнаружить сильные ассоциативные правила.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.