Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Google

    Как Google автоматически извлекает Утверждения, Авторов и Вердикты из статей по проверке фактов без использования разметки

    AUTOMATIC IDENTIFICATION OF FACT CHECK FACTORS (Автоматическая идентификация факторов проверки фактов)
    • US20250217596A1
    • Google LLC
    • 2025-07-03
    • 2019-11-21
    2019 EEAT и качество Патенты Google Семантика и интент

    Google использует обученные NLP-модели (Sequence Tagging Models, например, BERT) для автоматического анализа статей с проверкой фактов. Система идентифицирует ключевые элементы — проверяемое утверждение (Claim), автора утверждения (Claimant) и вердикт (Veracity) — даже при отсутствии специальной разметки (ClaimReview). Точность извлечения валидируется путем проверки того, как часто это утверждение встречается в других источниках.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает проблему масштабируемого и точного извлечения структурированной информации из неструктурированных статей, посвященных проверке фактов (fact-check articles). Существующие методы часто полагаются на наличие специальной разметки (например, ClaimReview schema.org), которую используют не все издатели. Альтернативные методы, основанные на лингвистических правилах, неэффективны из-за разнообразия стилей написания. Изобретение позволяет автоматически идентифицировать ключевые факторы проверки фактов (fact check factors) независимо от формата и наличия разметки.

    Что запатентовано

    Запатентована система автоматической идентификации fact check factors из цифровых документов. Ядром системы является обученная модель маркировки последовательностей (trained sequence tagging model, например, BERT). Модель анализирует текст и извлекает три ключевых компонента: проверяемое утверждение (claim), автора утверждения (claimant) и вердикт (veracity). Система вычисляет оценку уверенности (confidence value), используя внешний консенсус (упоминания в других источниках) для валидации результатов.

    Как это работает

    Система работает в несколько этапов:

    • Обработка текста: Текст документа разбивается на последовательности слов с помощью Sequence Generator.
    • Маркировка (Tagging): Обученная Sequence Tagging Model присваивает метку каждому слову (например, Claim, Claimant, Veracity или Не фактор).
    • Реконструкция: Модель-комбинатор (Combiner Model) объединяет маркированные слова для формирования финальных факторов.
    • Валидация (Corroboration): Система рассчитывает confidence value. Ключевой механизм валидации — поиск извлеченного утверждения в поисковой системе (Search Engine).
    • Корректировка уверенности: Confidence value корректируется в зависимости от того, как часто это утверждение встречается в других ресурсах.
    • Хранение и Предоставление: Факторы с высокой степенью уверенности сохраняются и предоставляются по запросу (например, fact checking entity).

    Актуальность для SEO

    Высокая. Автоматическое извлечение структурированных данных с помощью больших языковых моделей (в патенте упоминается BERT) является основой современного Information Retrieval. Борьба с дезинформацией и точное понимание фактической достоверности контента критически важны для Google, особенно в контексте E-E-A-T. Этот патент описывает конкретный механизм для масштабирования базы знаний о проверенных фактах.

    Важность для SEO

    Патент имеет высокое стратегическое значение для SEO (7.5/10). Он демонстрирует, как Google масштабирует понимание фактической точности и консенсуса в отношении конкретных утверждений (claims) в интернете, не полагаясь на действия вебмастеров по внедрению разметки. Это напрямую влияет на оценку достоверности (Trustworthiness) контента и издателей. Понимание этого механизма подчеркивает важность фактической точности публикуемой информации и риски, связанные с распространением опровергнутых утверждений.

    Детальный разбор

    Термины и определения

    Claim (Утверждение)
    Фактическое утверждение, точность которого оценивается в статье.
    Claimant (Автор утверждения)
    Лицо или организация, сделавшая проверяемое утверждение.
    Combiner Model (Модель-комбинатор)
    Компонент, который реконструирует финальные fact check factors из последовательностей слов и меток. Может быть основан на правилах (например, объединение слов в пределах порогового расстояния) или быть обучаемой моделью.
    Confidence Value (Оценка уверенности)
    Метрика, представляющая вероятность того, что извлеченный набор факторов корректен. Корректируется на основе внешнего подтверждения (Corroboration).
    Fact Check Factors (Факторы проверки фактов)
    Ключевая информация в статье. Включает Claim, Claimant и Veracity.
    Fact Checking Entity (Организация по проверке фактов)
    Организация, которая проверяет точность утверждений и может запрашивать у системы извлеченные факторы.
    Rule-based Sequence Tagger (Маркировщик на основе правил)
    Компонент, используемый для генерации обучающих данных из известных фактов (Known Fact Checks). Включает два типа:

    • Concise Tagger (Точный/Сжатый): Фокусируется на краткости, маркируя только основные слова фактора.
    • Fluent Tagger (Плавный): Фокусируется на читабельности, включая слова между основными элементами фактора.
    Sequence Tagging Model (Модель маркировки последовательностей)
    Обученная NLP-модель (например, BERT), которая принимает последовательность слов и выводит последовательность меток, определяя роль каждого слова.
    Veracity / Verdict (Вердикт / Достоверность)
    Оценка точности утверждения (например, Правда, Ложь), определенная факт-чекером.

    Ключевые утверждения (Анализ Claims)

    Примечание: Патент является продолжением (Continuation). Пункты 1-12 отменены (canceled). Анализ фокусируется на действующих Claims 13-32.

    Claim 13 (Независимый пункт): Описывает основной метод работы системы.

    1. Система получает запрос на fact check factors для документа от fact checking entity.
    2. Применяется trained sequence tagging model для идентификации набора факторов (Claim, Claimant, Veracity).
    3. Определяется confidence value. Ключевое уточнение: эта оценка основана на количестве раз, когда данное утверждение (Claim) найдено в других ресурсах (внешняя корроборация).
    4. Если confidence value превышает пороговый уровень, система предоставляет извлеченные факторы.

    Ядро изобретения — использование внешнего веб-консенсуса для валидации результатов работы внутренней NLP-модели.

    Claim 16 и 17 (Зависимые): Детализируют механизм валидации и корректировки уверенности.

    1. Система использует поисковую систему (search engine) для идентификации других ресурсов, ссылающихся на извлеченные факторы.
    2. Confidence value корректируется, если количество этих ресурсов удовлетворяет порогу (Claim 16).
    3. Корректировка может быть пропорциональна количеству ресурсов, превышающих порог (Claim 17).

    Claim 19 и 20 (Зависимые): Описывают взаимодействие моделей.

    • Sequence tagging model получает слова и выводит метки.
    • Combiner Model получает слова и метки и генерирует финальный набор fact check factors.

    Claim 24 (Зависимый): Описывает процесс обучения sequence tagging model с использованием известных статей и факторов (Known Fact Checks). Метки генерируются путем сопоставления слов в тексте со словами известных факторов (используя, например, Concise или Fluent taggers, как указано в Claims 14 и 15).

    Где и как применяется

    Изобретение применяется в основном на этапе анализа и структурирования контента.

    CRAWLING – Сканирование и Сбор данных
    Система идентифицирует цифровые документы (потенциальные статьи с проверкой фактов) от различных издателей.

    INDEXING – Индексирование и извлечение признаков
    Основной этап применения. Система функционирует как механизм извлечения признаков (Feature Extraction).

    • NLP и Семантика: При обработке документов система использует trained sequence tagging model для анализа текста и извлечения структурированных данных (Claim, Claimant, Veracity).
    • Валидация: Система взаимодействует с Search Engine для поиска внешних подтверждений (корроборации) извлеченного утверждения, чтобы скорректировать confidence value.
    • Хранение: Извлеченные факторы сохраняются в ассоциации с документом (например, в индексе проверенных фактов или Knowledge Graph).

    RANKING / RERANKING (Потенциальное влияние)
    Патент не описывает ранжирование, но извлеченные данные о достоверности утверждений (Veracity) могут использоваться как сигналы качества и достоверности (E-E-A-T) для оценки контента, содержащего эти утверждения.

    Входные данные:

    • Текст цифрового документа (веб-страница, PDF, изображение, видео).
    • Результаты поиска из поисковой системы (для валидации).
    • (Для обучения) База Known Fact Checks.

    Выходные данные:

    • Структурированный набор fact check factors.
    • Confidence value для извлеченного набора.

    На что влияет

    • Конкретные типы контента: В первую очередь влияет на статьи, посвященные проверке фактов (fact-check articles). Косвенно влияет на любой контент, содержащий фактические утверждения, которые могут быть сверены с базой извлеченных фактов.
    • Конкретные ниши или тематики: Наибольшее влияние в YMYL-тематиках (здоровье, финансы), новостях, политике, науке, где точность информации критична.

    Когда применяется

    • Триггеры активации: Алгоритм применяется при индексации новых или обновленных документов или при получении явного запроса от fact checking entity.
    • Пороговые значения:
      • Порог уверенности (Confidence Threshold): Используется для решения, следует ли сохранять или предоставлять извлеченные факторы (Claim 13).
      • Порог корроборации: Количество внешних ресурсов, подтверждающих утверждение, необходимое для корректировки confidence value (Claim 16).

    Пошаговый алгоритм

    Этап А: Обработка документа и извлечение факторов

    1. Идентификация документов: Система идентифицирует цифровые документы из различных источников.
    2. Генерация последовательностей: Для каждого документа текст разбивается на последовательности слов равной длины (с помощью Sequence Generator).
    3. Маркировка последовательностей: Обученная Sequence Tagging Model обрабатывает последовательности и присваивает метку каждому слову (например, Claim, Claimant, Veracity, Не фактор).
    4. Комбинирование факторов: Combiner Model анализирует маркированные последовательности и собирает слова с одинаковыми метками в итоговые fact check factors. Модель может применять правила для объединения близлежащих регионов текста.
    5. Расчет начальной уверенности: Система определяет начальную confidence value на основе выходных данных модели.

    Этап Б: Валидация и корректировка уверенности (Corroboration)

    1. Внешний поиск: Система формулирует поисковый запрос, включающий извлеченное утверждение (Claim), и отправляет его в поисковую систему.
    2. Анализ результатов: Система определяет, сколько других ресурсов ссылаются на это же утверждение.
    3. Корректировка уверенности: Confidence value корректируется. Если количество найденных внешних ресурсов превышает порог, уверенность увеличивается (возможно, пропорционально, согласно Claim 17).

    Этап В: Хранение и предоставление

    1. Проверка порога: Итоговая confidence value сравнивается с порогом уверенности.
    2. Хранение: Если порог превышен, извлеченные fact check factors сохраняются в базе данных в ассоциации с документом.
    3. Предоставление: При получении запроса система предоставляет извлеченные факторы запрашивающей стороне.

    Какие данные и как использует

    Данные на входе

    • Контентные факторы: Основные данные – это полный текст цифрового документа. Система анализирует последовательности слов (sequences of words), их семантику и контекст.
    • Внешние данные: Результаты поиска из поисковой системы (список ресурсов), используемые для валидации извлеченного утверждения (Claim) и корректировки уверенности.
    • Системные данные (для обучения): Набор известных статей с проверкой фактов и соответствующие им точные факторы (Known Fact Checks).

    Какие метрики используются и как они считаются

    • Алгоритмы машинного обучения: Используется Sequence Tagging Model. Патент явно упоминает возможность использования NLP-моделей, таких как BERT.
    • Confidence Value (Оценка уверенности): Рассчитывается на основе выходных данных модели (например, как логарифмическая вероятность) и корректируется на основе внешних данных. Claim 13 явно указывает, что оценка основана на «number of times that the claim is found in other resources».
    • Пороговые значения:
      • Confidence Threshold: Порог для принятия решения о сохранении данных.
      • Порог количества внешних ресурсов: Используется для корректировки Confidence Value.
    • Методы генерации обучающих данных: Используются Concise Tagger (фокус на точном совпадении слов) и Fluent Tagger (включает промежуточные слова для улучшения читаемости) для создания размеченных данных с помощью Rule-based Sequence Tagger.

    Выводы

    1. Автоматизация заменяет зависимость от разметки: Google активно снижает зависимость от внедрения разметки (например, ClaimReview) издателями, используя передовые NLP-модели для автоматического извлечения структурированных данных. Это значительно расширяет объем фактчекинговой информации, доступной системе.
    2. Внешняя валидация (Corroboration) как ключевой сигнал уверенности: Патент подчеркивает важность кросс-валидации (Claim 13). Уверенность системы в корректности извлечения утверждения повышается, если это же утверждение обсуждается в других источниках в интернете (консенсус). Это механизм защиты от ошибок модели.
    3. Гибкость в понимании языка (Concise vs Fluent): Использование разных подходов к обучению (Concise и Fluent Taggers) указывает на то, что система стремится балансировать между точностью извлечения фактов и пониманием естественно сформулированного текста.
    4. Инфраструктура для E-E-A-T и борьбы с дезинформацией: Этот патент описывает инфраструктурный механизм для масштабирования сбора данных о проверенных фактах. Эта база данных критически важна для оценки достоверности (Trustworthiness) контента и издателей в экосистеме поиска.
    5. Важность машиночитаемости контента: Для корректной работы системы контент должен быть написан так, чтобы ключевые элементы (Утверждение, Автор, Вердикт) были легко идентифицируемы не только человеком, но и машиной.

    Практика

    Best practices (это мы делаем)

    Для издателей, публикующих проверку фактов (Fact-Checkers):

    • Обеспечение максимальной ясности текста: Убедитесь, что текст статьи четко и недвусмысленно формулирует проверяемое утверждение (Claim), указывает автора (Claimant) и выносит вердикт (Veracity). Это облегчит работу Sequence Tagging Model и повысит Confidence Value.
    • Проверка «узнаваемости» утверждения: Так как система использует внешнюю валидацию (Corroboration), использование той же формулировки утверждения, которая распространена в других источниках, поможет системе подтвердить извлеченные данные.
    • Продолжение использования ClaimReview: Использование стандартной разметки остается лучшей практикой, так как гарантирует передачу данных в нужном формате. Автоматическое извлечение следует рассматривать как дополнительный механизм.

    Для всех издателей:

    • Обеспечение фактической точности (E-E-A-T): Google систематически собирает данные о том, какие утверждения являются ложными. Публикация опровергнутой информации может негативно сказаться на оценке достоверности сайта.
    • Ясность в отношении авторства: Четко указывайте, кто является источником утверждения или цитаты в вашем контенте. Это помогает системам правильно идентифицировать Claimant.

    Worst practices (это делать не надо)

    • Сложный и запутанный язык: Использование двусмысленных формулировок или сложной структуры предложений при описании утверждения или вердикта может привести к ошибкам в работе Sequence Tagging Model.
    • Отсутствие явного вердикта: Если статья разбирает утверждение, но не выносит четкого финального вердикта, система не сможет извлечь Veracity.
    • Публикация непроверенной информации: Распространение утверждений, которые были идентифицированы как ложные в базе данных Google (созданной с помощью этой технологии), является серьезным риском для E-E-A-T.

    Стратегическое значение

    Патент подтверждает стратегический курс Google на машиночитаемость контента и автоматизацию извлечения знаний. Он демонстрирует, как Google может использовать консенсус в интернете (количество упоминаний факта) для валидации работы своих собственных алгоритмов. Для SEO-специалистов это сигнал о том, что ясность, структура и фактическая точность контента становятся все более важными для алгоритмического анализа.

    Практические примеры

    Сценарий: Оптимизация статьи для автоматического извлечения

    Плохой пример (сложно для извлечения):
    «Недавно в сети появились разговоры о том, что дельфины якобы могут жить на суше до месяца. Некоторые пользователи поверили в это. Однако, биология говорит об обратном, и это, конечно, не так.»

    • Проблема: Claimant не указан явно, Veracity сформулирован неявно («конечно, не так»). Модели будет сложно точно определить факторы.

    Хороший пример (легко для извлечения):
    «Утверждение (Claim): ‘Дельфины могут жить на суше до одного месяца’.
    Источник (Claimant): Пользователь Facebook Джон Доу опубликовал этот пост 15 октября.
    Наш Вердикт (Veracity): Ложь.
    Биологи подтверждают, что дельфины не могут выжить вне воды более нескольких часов.»

    • Преимущество: Sequence Tagging Model легко идентифицирует все три фактора благодаря явным маркерам и четким формулировкам. Механизм внешней валидации также сможет найти это утверждение в сети для подтверждения Confidence Value.

    Вопросы и ответы

    Означает ли этот патент, что мне больше не нужно внедрять разметку ClaimReview?

    Нет, внедрение разметки ClaimReview остается наилучшей практикой. Разметка гарантирует, что вы передаете данные поисковой системе в точном и ожидаемом формате, устраняя неоднозначность. Описанная в патенте система служит для расширения охвата – она позволяет Google обрабатывать фактчекинговые статьи на сайтах, которые не внедрили разметку, или выступает как страховочный механизм.

    Какую модель машинного обучения Google использует для этого?

    Патент описывает использование Trained Sequence Tagging Model. В тексте патента явно упоминается, что это может быть NLP-модель, например, BERT. Это указывает на использование передовых трансформерных архитектур для глубокого понимания контекста и структуры текста.

    Как работает механизм «внешней валидации» (External Validation / Corroboration)?

    Это ключевой компонент для повышения точности, описанный в Claim 13. После того как система извлекла предполагаемое утверждение (Claim), она выполняет поиск этого утверждения в интернете. Если система обнаруживает, что это утверждение также цитируется на других ресурсах (в достаточном количестве), это повышает Confidence Value (оценку уверенности) в том, что извлечение было выполнено корректно.

    Что произойдет, если моя статья опровергает совершенно новое утверждение, о котором еще никто не писал?

    В этом случае механизм внешней валидации может не найти подтверждающих ресурсов. Согласно патенту (Claim 13, 16), это может привести к снижению Confidence Value. Это не обязательно означает, что ваши данные будут проигнорированы, но снижает надежность автоматического извлечения. В таких ситуациях наличие разметки ClaimReview особенно важно.

    Как система определяет границы утверждения или имени автора?

    Этим занимаются два компонента. Сначала Sequence Tagging Model маркирует каждое слово (например, слово 1=Claimant, слово 2=Claimant). Затем Combiner Model собирает эти слова вместе. Combiner Model может использовать правила, учитывающие близость слов друг к другу (например, объединяя слова в пределах порогового расстояния), чтобы объединить их в финальный фактор.

    В чем разница между Concise Tagger и Fluent Tagger?

    Это два разных подхода к обучению модели. Concise Tagger (точный) фокусируется только на ключевых словах фактора (краткость). Fluent Tagger (плавный) может включать промежуточные слова для лучшей читаемости. Это показывает, что Google тестирует разные способы извлечения, учитывая как точность, так и естественность языка.

    Как этот патент влияет на E-E-A-T и YMYL-сайты?

    Влияние значительное. Технология позволяет Google масштабно собирать данные о достоверности различных утверждений, особенно в чувствительных YMYL-тематиках. Если сайт публикует информацию, которая противоречит базе проверенных фактов Google (собранной с помощью этой технологии), его оценка достоверности (Trustworthiness в E-E-A-T) может быть снижена.

    Влияет ли эта система на ранжирование моего сайта?

    Патент не описывает алгоритмы ранжирования, а только механизм извлечения структурированных данных. Однако эти данные затем могут использоваться системами ранжирования как сигналы качества или для отображения в специальных функциях SERP (например, Fact Check блоки), что косвенно влияет на видимость вашего контента и может влиять на оценку достоверности (Trust).

    Что делать, чтобы система корректно извлекала данные из моих статей?

    Ключевая рекомендация – максимальная ясность и структурированность. Явно указывайте в тексте: какое утверждение проверяется, кто его автор и каков финальный вердикт. Использование подзаголовков или выделенных блоков для этих элементов значительно облегчит работу Sequence Tagging Model.

    Улучшает ли эта технология безопасность системы?

    В описании патента (параграф [0011]) упоминается, что реализация этой технологии в виде отдельного сервиса может улучшить сетевую безопасность. Определяя, является ли документ действительно статьей с проверкой фактов (на основе возможности извлечения факторов), система может предотвратить загрузку вредоносных файлов (спама, вирусов) во внутреннюю среду организации, занимающейся обработкой этих данных.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2026 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.