Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Google

    Как Google использует известные атрибуты сущностей для валидации новых фактов и наполнения Knowledge Graph

    IDENTIFYING ENTITY ATTRIBUTE RELATIONS (Идентификация отношений сущность-атрибут)
    • US11263400B2
    • Google LLC
    • 2022-03-01
    • 2019-07-05
    2019 EEAT и качество Knowledge Graph Индексация Патенты Google

    Google применяет сложную модель машинного обучения для извлечения фактов из текста. Система анализирует не только контекст, в котором сущность и атрибут упоминаются вместе, но и использует уже известные атрибуты этой сущности, а также атрибуты похожих сущностей из Knowledge Graph. Это позволяет точнее валидировать характеристики сущностей, даже если они нечетко описаны в тексте.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает задачу повышения точности извлечения структурированных данных (отношений сущность-атрибут) из неструктурированных текстовых корпусов для наполнения Базы Знаний (Knowledge Base, например, Knowledge Graph). Традиционные методы, основанные только на анализе контекста предложений, где сущность и атрибут встречаются вместе, часто ограничены и подвержены ошибкам. Изобретение улучшает точность валидации фактов, используя информацию, выходящую за рамки конкретного текста.

    Что запатентовано

    Запатентована система классификации отношений сущность-атрибут, использующая гибридный подход на основе машинного обучения. Ключевая новизна заключается в дополнении стандартного контекстуального анализа двумя новыми типами представлений: Attribute Distributional Embedding для сущности и для атрибута. Эти эмбеддинги позволяют системе учитывать уже известные характеристики сущности и характеристики похожих сущностей для валидации новой связи.

    Как это работает

    Система анализирует пару кандидат (Сущность, Атрибут) с помощью классификационной модели (Classification Model), которая генерирует пять различных векторных представлений (эмбеддингов):

    • Контекстуальный анализ (Векторы 1-3): Анализируются предложения, где встречаются оба термина. Генерируется эмбеддинг для слов между ними (Path Embedding), а также контекстуальные эмбеддинги для самой сущности и атрибута (Distributional Representation).
    • Атрибутивный анализ сущности (Вектор 4): Система анализирует, какие другие атрибуты уже известны для этой сущности в Knowledge Base, и использует их для создания Attribute Distributional Embedding для сущности.
    • Атрибутивный анализ атрибута (Вектор 5): Система находит другие сущности, которые обладают этим атрибутом, анализирует их характеристики и использует это для создания Attribute Distributional Embedding для атрибута.

    Все пять векторов объединяются и передаются в нейронную сеть прямого распространения (Feedforward Network), которая принимает финальное решение о валидности отношения.

    Актуальность для SEO

    Высокая. Патент опубликован в 2022 году. Построение и валидация Knowledge Graph является центральной задачей для Google. Методы извлечения фактов, использующие сложные нейросетевые архитектуры (включая LSTM и механизмы внимания) и гибридные подходы (комбинирующие контекст и существующие знания), лежат в основе современного семантического поиска (например, MUM).

    Важность для SEO

    Влияние на SEO значительное (85/100). Патент описывает внутренние механизмы наполнения Knowledge Graph, что критически важно для стратегий Entity-based SEO. Он раскрывает, как именно Google анализирует контент для извлечения и валидации фактов. Чтобы сайт стал надежным источником данных и чтобы связанные с ним сущности (бренды, авторы, продукты) были правильно интерпретированы, контент должен быть лингвистически четок и предоставлять полный набор атрибутов, релевантных для данного типа сущности.

    Детальный разбор

    Термины и определения

    Attention Mechanism (Механизм внимания)
    Метод в нейронных сетях для взвешивания важности различных частей входных данных. Используется здесь для расчета взвешенной суммы эмбеддингов (например, при агрегации информации из разных предложений или разных атрибутов).
    Attribute Distributional Embedding (Атрибутивный распределенный эмбеддинг)
    Ключевая инновация патента. Для сущности — это эмбеддинг, основанный на других известных атрибутах этой сущности. Для атрибута — это эмбеддинг, основанный на известных атрибутах других сущностей, которые обладают этим атрибутом.
    Classification Model (Классификационная модель)
    Общая модель, включающая компоненты для генерации эмбеддингов и финальный классификатор (Feedforward Network), которая определяет валидность пары сущность-атрибут.
    Distributional Representation (Распределенное представление)
    Стандартный контекстуальный эмбеддинг для сущности и атрибута, основанный на том, как они используются в предложениях.
    Entity-Attribute Candidate Pair (Пара кандидат сущность-атрибут)
    Предполагаемое отношение между сущностью и атрибутом, извлеченное из текста и требующее валидации.
    Feedforward Network (Нейронная сеть прямого распространения)
    Финальный классификатор, который принимает на вход конкатенацию всех сгенерированных эмбеддингов и определяет, является ли отношение действительным.
    Knowledge Base (База знаний)
    Хранилище подтвержденных (известных) пар сущность-атрибут (например, Knowledge Graph). Используется для генерации Attribute Distributional Embeddings.
    LSTM (Long Short-Term Memory)
    Тип рекуррентной нейронной сети, используемый для обработки последовательностей данных. Здесь используется для обработки синтаксического пути между сущностью и атрибутом.
    Path Embedding (Эмбеддинг пути)
    Векторное представление слов и синтаксических зависимостей (dependency path), соединяющих сущность и атрибут в предложении.

    Ключевые утверждения (Анализ Claims)

    Claim 1 (Независимый пункт): Описывает основной метод идентификации отношений сущность-атрибут.

    1. Система получает пару кандидат (Сущность E, Атрибут A).
    2. Система определяет, является ли A действительным атрибутом E, используя набор предложений, содержащих E и A. Процесс определения включает:
      1. Генерацию эмбеддингов для слов в этих предложениях.
      2. Генерацию Attribute Distributional Embedding для сущности E, используя известные пары. Этот эмбеддинг основан на других атрибутах, ассоциированных с E.
      3. Генерацию Attribute Distributional Embedding для атрибута A, используя известные пары. Этот эмбеддинг основан на известных атрибутах других сущностей, которые ассоциированы с A.
      4. Определение валидности пары (E, A) на основе всех трех типов сгенерированных эмбеддингов (a, b, c).

    Ядром изобретения является использование шагов (b) и (c) — применение существующих знаний о сущности и похожих сущностях для валидации новой информации.

    Claim 2 (Зависимый от 1): Уточняет шаг (a) — генерацию эмбеддингов из предложений. Она включает генерацию трех векторов:

    • Вектор 1 (Path Embedding): для слов между E и A.
    • Вектор 2 (Distributional Representation): для E на основе предложений.
    • Вектор 3 (Distributional Representation): для A на основе предложений.

    Claim 3 (Зависимый от 2): Уточняет шаги (b) и (c). Генерация Attribute Distributional Embeddings создает Вектор 4 (для E) и Вектор 5 (для A).

    Claim 5 и 6 (Зависимые): Уточняют шаг (d) — финальное определение. Оно выполняется с помощью Feedforward Network. Процесс включает конкатенацию всех пяти векторных представлений в единый вектор и его ввод в нейронную сеть для классификации.

    Claim 7 и 8 (Зависимые): Детализируют генерацию Attribute Distributional Embeddings (Векторы 4 и 5). Процесс включает идентификацию соответствующих наборов атрибутов из базы знаний и вычисление их взвешенной суммы (weighted sum).

    Где и как применяется

    Изобретение применяется на этапе обработки контента и построения Базы Знаний.

    CRAWLING – Сканирование и Сбор данных
    Система собирает текстовые корпуса (Data Source), которые служат источником для извлечения кандидатов пар сущность-атрибут и предложений для анализа.

    INDEXING – Индексирование и извлечение признаков
    Основной этап применения патента. Описанный механизм является частью процесса извлечения признаков (Feature Extraction) и наполнения Knowledge Graph.

    1. Предварительная обработка: Текст обрабатывается (NLP-анализ: парсинг зависимостей, POS-тегирование) для идентификации кандидатов пар сущность-атрибут.
    2. Валидация отношений: Classification Model используется для анализа кандидатов и определения их валидности, используя как текст, так и существующую Knowledge Base.
    3. Наполнение KG: Подтвержденные отношения сохраняются в Knowledge Base.

    Этот процесс происходит офлайн (или в процессе индексации), а не в реальном времени при обработке запроса пользователя.

    Входные данные:

    • Пара кандидат (Сущность, Атрибут).
    • Набор предложений из текстового корпуса, где встречаются оба термина.
    • Существующая Knowledge Base с известными парами сущность-атрибут.

    Выходные данные:

    • Решение о валидности пары (бинарное или оценка уверенности).
    • Новые подтвержденные пары, добавленные в Knowledge Base.

    На что влияет

    • Конкретные типы контента: Наибольшее влияние на контент, богатый фактами и описаниями сущностей — статьи, биографии, технические описания продуктов, новости.
    • Специфические запросы: Влияет на результаты информационных запросов, где требуется предоставление фактов о сущностях (генерация Knowledge Panels, Featured Snippets).
    • Конкретные ниши или тематики: Критически важно в YMYL-тематиках (медицина, финансы), где точность извлечения атрибутов (например, побочные эффекты лекарства, условия кредита) имеет первостепенное значение для E-E-A-T. Также важно для E-commerce и локального поиска.

    Когда применяется

    • Условия работы: Алгоритм применяется, когда система обнаруживает потенциальную новую связь между сущностью и атрибутом в тексте.
    • Триггеры активации: Упоминается, что кандидаты могут рассматриваться, только если количество предложений, в которых они совместно встречаются, превышает порог (например, 30 предложений).
    • Временные рамки: Применяется в процессе индексации или при плановом обновлении/расширении Knowledge Base.

    Пошаговый алгоритм

    Процесс валидации отношения (Сущность E, Атрибут A):

    1. Получение данных: Система получает пару кандидат (E, A) и набор предложений, содержащих оба термина.
    2. Генерация Path Embedding (Вектор 1): Анализируются лингвистические пути между E и A.
      1. Извлекаются пути зависимостей (dependency paths).
      2. Каждый элемент пути кодируется признаками (лемма, POS-тег, метка зависимости).
      3. Последовательность векторов обрабатывается LSTM-сетью для получения вектора предложения.
      4. Векторы всех предложений агрегируются через Attention Mechanism в финальный Вектор 1.
    3. Генерация Distributional Representation (Векторы 2 и 3): Генерируются стандартные контекстуальные эмбеддинги для E (Вектор 2) и A (Вектор 3) на основе набора предложений.
    4. Генерация Attribute Distributional Embedding для Сущности (Вектор 4):
      1. Идентифицируются все известные атрибуты для E в Knowledge Base (кроме A).
      2. Вычисляется взвешенная сумма этих атрибутов (используя Attention Mechanism) для создания Вектора 4.
    5. Генерация Attribute Distributional Embedding для Атрибута (Вектор 5):
      1. Идентифицируются другие сущности (E’, E»), которые обладают атрибутом A.
      2. Для каждой такой сущности идентифицируются ее известные атрибуты.
      3. Вычисляется взвешенная сумма этих атрибутов (используя Attention Mechanism) для создания Вектора 5.
    6. Конкатенация: Все пять векторов (Вектор 1-5) объединяются в единое представление.
    7. Классификация: Объединенный вектор подается на вход Feedforward Network.
    8. Принятие решения: Сеть определяет, является ли A действительным атрибутом E (выдает оценку уверенности).
    9. Обновление Базы Знаний: Если отношение подтверждено (например, оценка выше порога 0.8), пара (E, A) сохраняется в Knowledge Base.

    Какие данные и как использует

    Данные на входе

    • Контентные и Структурные факторы (Лингвистические): Текст предложений. Система активно использует результаты NLP-анализа: леммы слов, части речи (part-of-speech tags), деревья зависимостей (dependency parse tree tags) и метки зависимостей (dependency label).
    • Системные данные (Knowledge Base): Существующая Knowledge Base (известные пары сущность-атрибут). Это критически важный источник данных для генерации Attribute Distributional Embeddings.

    Какие метрики используются и как они считаются

    Система полагается на векторные представления (эмбеддинги) и механизмы машинного обучения для классификации.

    • Векторные представления: Генерируются 5 ключевых векторов, описанных в алгоритме.
    • Методы вычислений и Алгоритмы:
      • LSTM (Long Short-Term Memory): Используется для обработки последовательностей (лингвистических путей) при генерации Path Embedding.
      • Attention Mechanism (Механизм внимания): Используется для вычисления взвешенной суммы (weighted sum) векторов предложений и взвешенной суммы атрибутов. Это позволяет модели фокусироваться на наиболее важных элементах.
      • Feedforward Network: Используется как финальный классификатор. В патенте упоминается, что обучение может использовать distant supervision.
    • Оценка уверенности (Confidence Value): Финальный выход классификатора, определяющий вероятность того, что отношение валидно.
    • Пороговые значения: Упоминается порог на минимальное количество совместных упоминаний в предложениях (например, 30) и порог уверенности (например, 0.8) для принятия отношения.

    Выводы

    1. Гибридный подход к извлечению фактов: Google не полагается исключительно на анализ текста для наполнения Knowledge Graph. Система активно использует существующие знания для валидации новой информации, комбинируя текстовый анализ (NLP) и структурный анализ (Knowledge Base).
    2. Attribute Distributional Embedding как ключевой механизм: Это центральная идея патента. Сущность определяется не только тем, как она описана в тексте, но и набором ее известных характеристик (профилем атрибутов). Аналогично, атрибут определяется типом сущностей, которые им обладают.
    3. Валидация через схожесть сущностей: Система использует принцип «подобное к подобному» (distributional similarity) на уровне атрибутов. Если две сущности имеют схожие профили атрибутов, система с большей уверенностью примет новый атрибут, соответствующий этому профилю.
    4. Важность лингвистических паттернов (Path Embeddings): Способ, которым сущность и атрибут связаны в предложении (синтаксис), остается критически важным сигналом. Четкие и недвусмысленные формулировки облегчают извлечение фактов.
    5. Самоусиливающаяся система знаний: Точность извлечения новых фактов зависит от качества уже имеющихся данных в Knowledge Base. Подтвержденные факты улучшают базу, что, в свою очередь, улучшает будущую валидацию.

    Практика

    Best practices (это мы делаем)

    • Комплексное описание сущностей (Entity Completeness): При создании контента о сущности (человек, продукт, компания) необходимо предоставлять полный набор релевантных атрибутов. Это помогает системе сформировать точный Attribute Distributional Embedding и правильно классифицировать информацию с вашего сайта.
    • Использование четких лингвистических паттернов: Формулируйте предложения так, чтобы синтаксическая связь между сущностью и атрибутом была ясной. Это помогает Path Embedding Engine корректно интерпретировать отношения (например, «[Сущность] имеет [Атрибут]» или «[Атрибут] [Сущности] составляет X»).
    • Соблюдение семантической консистентности (Анализ эталонных профилей): Изучите, какие атрибуты Google показывает в Knowledge Panels для схожих сущностей в вашей нише. Убедитесь, что атрибуты, которые вы приписываете сущности, соответствуют ее типу. Система использует атрибуты похожих сущностей для валидации, поэтому нетипичные атрибуты будут отфильтрованы.
    • Структурирование данных и использование Schema.org: Максимально подробно размечайте атрибуты сущностей. Хотя патент фокусируется на извлечении из неструктурированного текста, микроразметка помогает явно указать на отношения, что упрощает процесс извлечения и валидации.
    • Построение Topical Authority и E-E-A-T: Становитесь авторитетным источником информации о кластере сущностей. Чем больше точных фактов Google извлечет с вашего сайта, тем выше вероятность, что он будет использоваться для дальнейшего наполнения Knowledge Base, что укрепляет E-E-A-T.

    Worst practices (это делать не надо)

    • Поверхностный контент (Thin Content): Создание страниц, упоминающих сущность, но не предоставляющих ее значимых атрибутов. Такой контент не несет ценности для наполнения Knowledge Graph и затрудняет генерацию Attribute Distributional Embedding.
    • Неоднозначные формулировки и сложные конструкции: Использование языка, который затрудняет определение лингвистического пути между сущностью и атрибутом. Это снижает эффективность Path Embedding Engine.
    • Приписывание нерелевантных атрибутов (Attribute Stuffing): Попытки манипулировать восприятием сущности путем добавления множества нерелевантных атрибутов. Механизм Attribute Distributional Embedding предназначен для выявления таких аномалий путем сравнения с профилями схожих сущностей.
    • Игнорирование Entity-based SEO: Фокус исключительно на ключевых словах без учета сущностей и их характеристик. Современные алгоритмы, как описанный в патенте, ориентированы на извлечение фактов, а не подсчет слов.

    Стратегическое значение

    Патент подтверждает стратегическую важность Entity-based SEO и построения семантически богатого контента. Google стремится структурировать мировую информацию, и этот патент описывает мощный инструмент для этой цели. Для SEO-специалистов это означает, что стратегия должна быть направлена на помощь Google в извлечении и валидации фактов. Приоритет отдается точности, полноте описания сущностей и ясности изложения. Сайты, которые предоставляют информацию в удобном для машинного извлечения формате и покрывают полный спектр ожидаемых атрибутов сущности, получают преимущество.

    Практические примеры

    Сценарий: Создание авторитетной страницы о лекарственном препарате (YMYL)

    1. Анализ сущности и атрибутов: Определить ключевую сущность (Название препарата) и стандартный набор атрибутов для этого типа сущности (Действующее вещество, Производитель, Показания, Противопоказания, Побочные эффекты, Дозировка).
    2. Обеспечение полноты (для Attribute Distributional Embedding): Убедиться, что все стандартные атрибуты присутствуют на странице. Это позволит Google сравнить вашу сущность с профилями других препаратов и валидировать информацию.
    3. Четкость изложения (для Path Embedding): Использовать четкие заголовки и формулировки. Например:
      • «Действующим веществом [Препарата] является [Вещество].»
      • «[Препарат] производится компанией [Компания].»
    4. Использование разметки: Применить Schema.org/Drug для структурирования данных.
    5. Ожидаемый результат: Система Google с высокой точностью извлекает и валидирует атрибуты препарата. Информация с сайта используется для наполнения Knowledge Graph и может отображаться в структурированных сниппетах, повышая видимость и E-E-A-T ресурса в YMYL-тематике.

    Вопросы и ответы

    Что такое Attribute Distributional Embedding и почему это важно?

    Это ключевая инновация патента. Это способ представления сущности на основе уже известных ее атрибутов в Knowledge Base, а не только по контексту предложений. Например, сущность определяется набором ее характеристик. Это позволяет точнее валидировать новые атрибуты, сравнивая их с характеристиками похожих сущностей, даже если в тексте информация описана слабо.

    Как система использует похожие сущности для валидации атрибутов?

    Это реализуется через Attribute Distributional Embedding для атрибута. Например, проверяется атрибут «Голы» для «Роналду». Система находит другие сущности с атрибутом «Голы» (например, «Месси»). Затем она анализирует другие атрибуты «Месси» (например, «Рекорд»). Если у «Роналду» и «Месси» схожие профили характеристик, система с большей уверенностью подтвердит связь («Роналду», «Голы»).

    Что такое Path Embedding и как его оптимизировать?

    Path Embedding — это векторное представление лингвистического пути (слов и синтаксических связей) между сущностью и атрибутом в предложении. Для оптимизации нужно использовать четкие, недвусмысленные языковые конструкции, которые ясно указывают на отношения между терминами (например, «X является Y», «X имеет Y»). Избегайте сложных предложений, где связь теряется.

    Означает ли этот патент, что Google может узнать факты, которых нет в тексте?

    Нет, система валидирует факты, которые присутствуют в тексте (кандидаты извлекаются из текстовых корпусов). Однако благодаря использованию Attribute Distributional Embeddings, система может подтвердить факт, даже если он описан в тексте очень слабо или неоднозначно, опираясь на знания о похожих сущностях. Она не придумывает факты, но значительно улучшает точность их извлечения.

    Как этот патент влияет на стратегию создания контента?

    Он подчеркивает важность комплексного подхода к описанию сущностей (Entity Completeness). Недостаточно просто упомянуть сущность; нужно предоставить полный набор ее релевантных атрибутов, соответствующих ожиданиям для данного типа сущности. Это помогает системе построить точный профиль сущности и использовать ваш сайт как источник для Knowledge Graph.

    Применяется ли этот алгоритм в реальном времени при запросе пользователя?

    Нет. Описанный процесс относится к этапу индексирования (INDEXING) и построения Knowledge Base. Система анализирует контент и извлекает факты офлайн. Во время запроса пользователя Google использует уже готовую, валидированную информацию из Knowledge Graph для генерации выдачи и структурированных результатов.

    Как система определяет, какие атрибуты использовать для сравнения и какой вес им придать?

    Патент указывает на использование механизмов внимания (Attention Mechanism) для вычисления взвешенной суммы атрибутов. Это означает, что система обучается определять, какие атрибуты являются наиболее значимыми или определяющими для данного типа сущности или контекста, и автоматически придает им больший вес при генерации Attribute Distributional Embeddings.

    Влияет ли этот патент на E-E-A-T?

    Да, значительно. E-E-A-T основан на точном понимании сущностей (авторов, организаций) и их квалификации (атрибутов). Этот патент описывает механизм, как Google валидирует эти атрибуты. Если система может точно извлечь и подтвердить ключевые атрибуты автора (например, его образование, опыт, место работы), это напрямую способствует оценке его экспертизы и авторитетности.

    Использует ли эта система LSTM или Трансформеры (BERT)?

    Патент явно упоминает использование LSTM (рекуррентной сети) для обработки последовательностей в синтаксических путях (Path Embedding). Также активно используется Attention Mechanism, который является ключевым компонентом архитектуры Трансформеров. Методология полностью соответствует современным подходам к NLP.

    Нужно ли использовать микроразметку Schema.org, если Google и так умеет извлекать факты?

    Да, обязательно. Микроразметка предоставляет явные сигналы о сущностях и их атрибутах, что значительно упрощает процесс извлечения и снижает вероятность ошибок. Хотя описанный механизм позволяет извлекать данные из неструктурированного текста, предоставление структурированных данных через Schema.org остается лучшей практикой для обеспечения максимальной точности интерпретации контента.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.