
Google определяет, является ли веб-страница авторитетным источником о конкретной сущности (Entity), анализируя все анкорные тексты входящих ссылок. Система находит консенсусное описание (Center of Mass). Если оно совпадает с именем сущности и это имя присутствует в заголовке страницы, документ используется как эталон для проверки (Corroboration) фактов в базе знаний Google (Fact Repository).
Патент решает задачу обеспечения точности и достоверности фактов, собираемых из интернета для наполнения базы знаний (Fact Repository, аналог Knowledge Graph). Ключевая проблема — как эффективно идентифицировать независимые, авторитетные документы, которые действительно релевантны конкретной сущности (Object), чтобы использовать их для верификации (Corroboration) или опровержения собранных данных, минимизируя влияние противоречивой или ненадежной информации.
Запатентована система и метод использования анкорного текста (Anchor Text) входящих ссылок как ключевого сигнала для определения релевантности документа конкретной сущности. Система анализирует и суммаризирует (находит консенсус) все анкорные тексты, указывающие на документ. Если этот консенсусный текст совпадает с названием сущности (Object Name), документ признается авторитетным источником для проверки фактов об этой сущности.
Механизм работает на этапе обработки индекса (Janitors):
N-gram clustering), система определяет «центр масс» (Center of Mass) анкорных текстов, взвешивая их по частоте. Это позволяет найти наиболее репрезентативное описание.<TITLE>).Corroboration) фактов об этой сущности.Высокая. Построение, валидация и обновление Knowledge Graph является критически важной задачей для Google. Использование анкорного текста как сигнала авторитетности и тематичности остается фундаментальным принципом. Описанные механизмы, направленные на определение консенсуса и фильтрацию шума (включая защиту от манипуляций с анкорами), крайне актуальны для понимания E-E-A-T и того, как Google определяет авторитетные источники.
Патент имеет высокое стратегическое значение (85/100). Он детально описывает, как Google использует анкорные тексты не только для ранжирования, но и для определения фундаментальной темы страницы в контексте извлечения знаний (Information Extraction) и Entity SEO. Чтобы сайт был признан авторитетным источником для сущности, критически важно, чтобы консенсус входящих анкорных текстов четко соответствовал имени сущности и заголовку <TITLE> целевой страницы.
Janitor), отвечающий за поиск релевантных документов и выполнение процесса подтверждения фактов.Objects). Аналог Google Knowledge Graph.Center of Mass.Fact Repository. Состоит из набора фактов, связанных общим идентификатором (Object ID) и имеющих название (Object Name).Claim 1 (Независимый пункт): Описывает основной метод подтверждения набора фактов в репозитории.
user-viewable anchor text), извлеченный из второго документа.corroborating) набора фактов.Ядро изобретения — это использование комбинации двух сигналов для определения пригодности документа к верификации фактов: совпадение входящего анкорного текста с названием сущности И присутствие этого названия/текста в самом документе.
Claim 2 и 4 (Зависимые): Уточняют обработку множественных анкоров.
Если получено множество кандидатов в анкорные тексты, система сначала выбирает один репрезентативный анкорный текст. Этот выбор осуществляется с помощью N-gram clustering (Claim 4).
Claims 7 и 9 (Зависимые): Уточняют место проверки наличия имени/анкора в документе (пункт 4 из Claim 1).
Если первый документ является HTML, анализ включает поиск имени сущности (Claim 7) или анкорного текста (Claim 9) в заголовке (header) HTML-документа (например, в теге Title).
Claim 11 (Зависимый): Описывает фильтрацию шума.
Анализ анкорного текста включает сравнение его со списком известного шумового текста (known noise text), чтобы определить, содержит ли документ релевантные данные.
Изобретение применяется в инфраструктуре построения и валидации базы знаний (Knowledge Graph).
CRAWLING – Сканирование и Сбор данных
На этом этапе собираются данные, необходимые для работы алгоритма: контент документов и граф ссылок, включая анкорные тексты.
INDEXING – Индексирование и извлечение признаков
Это основной этап применения патента.
Importers извлекают факты из документов и создают Objects (сущности).Corroboration Janitor запускается для валидации этих фактов. Он использует данные веб-графа (анкорные тексты) и контент проиндексированных страниц для поиска авторитетных источников (corroborating documents).Алгоритм не влияет напрямую на ранжирование в реальном времени (RANKING), но повышает качество данных в Fact Repository, которые затем используются системами ранжирования и для генерации SERP features.
Входные данные:
Object) и её имя (Name).Known Noise).Выходные данные:
YMYL, данные о компаниях, людях, продуктах и т.д.Fact Repository, когда системе необходимо проверить точность извлеченных фактов для конкретной сущности.Corroboration Janitor ищет авторитетные источники для валидации фактов сущности.Процесс определения авторитетного источника для подтверждения фактов сущности.
Corroboration Janitor идентифицирует сущность и потенциальный подтверждающий документ.Center of Mass (консенсусное описание), где каждый анкорный текст взвешивается по его частоте.Center of Mass.<TITLE> или заголовках). Алгоритм использует следующие типы данных для определения авторитетности источника:
Anchor Text). Анализируется полный набор анкоров, указывающих на документ. Также может учитываться авторитетность источника ссылки (например, PageRank) при взвешивании.Header) или тега <TITLE>. Используется для валидации релевантности документа.Center of Mass.Entity/Object) посвящена страница.N-gram clustering) для определения «центра масс». Это позволяет найти наиболее репрезентативное описание страницы, основанное на коллективном мнении веба.<TITLE>).corroborating source) является сильным сигналом доверия.Center of Mass) анкорных текстов точно соответствовал имени целевой сущности.<TITLE> и анкорными текстами входящих ссылок. Согласно патенту, это соответствие является обязательным условием для того, чтобы страница использовалась Google для подтверждения фактов.<TITLE> не совпадают). Страница не пройдет валидацию контента.Known Noise) неэффективно для установления тематической авторитетности по этому алгоритму.Этот патент подтверждает стратегическую важность интеграции Off-Page и On-Page SEO в эпоху семантического поиска (Entity-Based Search). Он предоставляет четкий механизм того, как Google связывает внешние сигналы (анкорные тексты) с внутренними сигналами (<TITLE>/контент) для определения авторитетности источника в контексте Knowledge Graph. Для долгосрочной стратегии, особенно в области E-E-A-T, необходимо целенаправленно формировать ссылочный профиль так, чтобы он соответствовал модели Corroboration.
Сценарий: Установление авторитетности сайта компании «Acme Corp»
Center of Mass к точному названию компании.<TITLE> главной страницы четко указывает «Acme Corp». Это гарантирует прохождение валидации контента.Corroboration Janitor, консенсус анкоров совпадет с именем сущности «Acme Corp», и сайт пройдет валидацию. Google начнет использовать Acme.com как эталонный источник для проверки фактов о компании.Что такое «Center of Mass» (Центр масс) в контексте анкорных текстов?
Это консенсусное мнение веба о содержании страницы. Система анализирует все входящие анкорные тексты, группирует их по схожести (используя N-gram clustering) и взвешивает по частоте. Center of Mass — это наиболее репрезентативное описание, которое отражает как тематику, так и популярность различных вариантов анкоров. Система выбирает анкор, ближайший к этому центру.
Как этот патент влияет на стратегию выбора анкорных текстов при линкбилдинге?
Стратегия должна фокусироваться на формировании четкого консенсуса. Это означает приоритет анкорных текстов, которые точно соответствуют имени сущности, которую представляет страница (например, название бренда или продукта). Необходимо минимизировать долю шумовых анкоров («здесь», «ссылка»), так как они фильтруются системой.
Почему важна проверка контента страницы (например, Title), если входящие анкоры уже релевантны?
Это механизм защиты от манипуляций (например, Google Bombing). Система должна убедиться, что анкорный текст не вводит в заблуждение и что целевая страница действительно посвящена данной теме. Если имя сущности или консенсусный анкор отсутствуют на странице, она не будет использоваться для подтверждения фактов.
Как этот патент связан с E-E-A-T и Knowledge Graph?
Он напрямую связан. Патент описывает механизм, с помощью которого Google идентифицирует авторитетные источники (Authority в E-E-A-T) для валидации данных в Fact Repository (Knowledge Graph). Если ваш сайт признан «подтверждающим источником» (corroborating document) согласно этому патенту, это является мощным сигналом авторитетности и доверия (Trust) для систем Google.
На каком этапе поиска работает этот механизм?
Он работает на этапе индексирования и обработки данных (INDEXING). Это не алгоритм ранжирования в реальном времени, а механизм валидации данных в базе знаний, который выполняется агентами обработки (Janitors) после извлечения фактов импортерами (Importers).
Что важнее согласно патенту: разнообразие анкорных текстов или их частота?
Важен баланс, но частота играет роль веса в алгоритме Center of Mass. Цель состоит в том, чтобы наиболее частые и схожие между собой анкорные тексты точно соответствовали имени сущности. Редкие или сильно отличающиеся анкоры меньше влияют на итоговый результат кластеризации.
Если я изменю <TITLE> страницы, как это повлияет на работу этого алгоритма?
Это может иметь критическое влияние. Если новый <TITLE> перестанет совпадать с именем сущности или консенсусным анкорным текстом, страница может не пройти этап валидации контента. В результате она перестанет считаться авторитетным источником для подтверждения фактов об этой сущности.
Как система определяет, что является «шумом» в анкорных текстах?
Патент упоминает использование списка Known Noise (известного шума). Это предопределенные списки неинформативных фраз, таких как «click here», «more info», «visit website», которые система автоматически игнорирует при определении тематики целевого документа.
Использует ли система авторитетность ссылающихся сайтов при анализе анкоров?
В основном описании алгоритма кластеризации вес анкорного текста определяется его частотой. Однако в патенте (Description) упоминается возможность использования различных метрик для взвешивания, например, PageRank источника ссылки. Логично предположить, что анкоры с более авторитетных сайтов могут иметь больший вес.
Может ли этот механизм извлекать новые факты или только подтверждать существующие?
Основная цель, описанная в патенте (Claim 1), — это подтверждение (Corroboration) существующего набора фактов и обновление этого набора. Обновление включает как корректировку статуса существующих фактов, так и добавление (storing) пар атрибут-значение из подтверждающего документа в набор фактов сущности.

Knowledge Graph
Семантика и интент
Ссылки

Поведенческие сигналы
Ссылки
SERP

Антиспам
Семантика и интент
Мультимедиа

Knowledge Graph
EEAT и качество
Семантика и интент

Knowledge Graph
Семантика и интент
Ссылки

Семантика и интент
SERP
Поведенческие сигналы

Поведенческие сигналы
Ссылки
SERP

Поведенческие сигналы
SERP

SERP
Ссылки
Структура сайта

Персонализация
SERP
Семантика и интент

Поведенческие сигналы
Мультимедиа
SERP

Семантика и интент
SERP
Поведенческие сигналы

Персонализация
Поведенческие сигналы
SERP

SERP
Семантика и интент
EEAT и качество

Антиспам
SERP
Ссылки
