Патент Google описывает механизм хранения личной информации пользователя, полученной из его утверждений (например, «Я съел банан»), в виде структурированных кортежей (tuples). Система объединяет эти персональные данные с информацией из Knowledge Graph (например, содержание калия в банане), чтобы генерировать персонализированные выводы и прямые ответы на сложные вопросы (например, «Достаточно ли я ем калия?»).
Описание
Какую задачу решает
Патент решает проблему интерпретации, структурирования и использования информации, предоставленной пользователем в свободной естественно-языковой форме (natural language declarations). Он устраняет ограничения традиционных систем (например, фитнес-трекеров), которые требуют ввода данных в предопределенных форматах и не могут извлекать информацию из произвольного текста. Цель — позволить системе понимать личный контекст пользователя и генерировать значимые выводы (inferences), комбинируя этот контекст с общими знаниями.
Что запатентовано
Запатентована система, которая преобразует естественно-языковые утверждения пользователя в структурированные данные (tuples или triples) и хранит их в персональной базе данных (Tuples Database). Ключевым механизмом является связывание этих персональных данных с фактами из Knowledge Graph или Entity Graph. При получении запроса система использует как личный контекст пользователя, так и общие знания для генерации высокоточного персонализированного ответа.
Как это работает
Система работает в двух основных режимах: агрегация информации и генерация ответа.
- Агрегация информации: Система получает утверждение пользователя (например, «Вчера я съел банан»). Используя grammar rules, она разбирает его на сегменты (пользователь, действие, объект, количество, дата). Затем она генерирует набор связанных кортежей (tuples), используя общий ярлык (label), и сохраняет их в привязке к пользователю.
- Генерация ответа: Система получает запрос (например, «Достаточно ли я ем калия?»). Она идентифицирует ключевые сегменты запроса («калий», «есть»). Система извлекает релевантные персональные tuples (о еде пользователя) и запрашивает Knowledge Graph для получения информации как о сегментах запроса (рекомендуемая норма калия), так и о сегментах из tuples (калий в банане). Система синтезирует ответ, комбинируя эти данные.
Актуальность для SEO
Высокая. Технологии обработки естественного языка (NLP), использование Knowledge Graph и генерация прямых ответов являются фундаментом современного поиска. С развитием Google Assistant, генеративных ИИ-моделей и персонализированного поиска, механизмы, описанные в патенте для понимания и использования личного контекста пользователя, крайне актуальны. Патент описывает инфраструктуру для хранения и обработки структурированных персональных знаний.
Важность для SEO
Влияние на традиционное SEO (ранжирование публичных веб-страниц в общем индексе) низкое (3.5/10). Патент не описывает алгоритмы ранжирования веб-документов, а фокусируется исключительно на обработке персональных данных для генерации персонализированных ответов (вероятно, в средах типа Google Assistant). Однако он имеет высокое стратегическое значение, так как детально раскрывает, как Google использует NLP для разбора предложений на факты (tuples/triples) и как Knowledge Graph используется в качестве источника истины для генерации ответов. Это подтверждает важность Entity-First подхода в SEO.
Детальный разбор
Термины и определения
- Entity Graph (Граф сущностей)
- Структурированная база данных известных сущностей (объектов, действий) и их атрибутов (например, пищевая ценность продуктов, калории, сжигаемые при активности). Используется для интерпретации сегментов.
- Grammar rules (Грамматические правила)
- Набор правил для идентификации, классификации слов/фраз в естественном языке и придания им контекстуального значения (например, части речи, математические символы, интерпретация терминов типа «вчера» или «двойной»).
- Inference (Вывод)
- Сгенерированный ответ или заключение, основанное на комбинации персональных данных пользователя (tuples) и общих знаний (Knowledge Graph).
- Knowledge Graph (Граф знаний)
- База данных, хранящая структурированную информацию о сущностях и связях между ними. Используется как источник фактов для генерации ответов.
- Label (Ярлык)
- Идентификатор, используемый для связывания нескольких tuples, полученных из одного и того же исходного утверждения (natural language declaration).
- Natural language declaration (Естественно-языковое утверждение)
- Входные данные от пользователя в свободной форме (предложение, фраза), которые система обрабатывает и сохраняет. Например, «Я съел яблоко».
- Natural language query (Естественно-языковой запрос)
- Вопрос, заданный пользователем системе. Например, «Достаточно ли я ем калия?».
- Pushed Inferences (Принудительные выводы)
- Выводы, генерируемые системой проактивно, без получения конкретного запроса от пользователя, на основе анализа его tuples.
- Segment (Сегмент)
- Элемент данных (одно или несколько слов), извлеченный из утверждения или запроса с помощью grammar rules.
- Triple (Тройка)
- Специфический тип кортежа, состоящий ровно из трех сегментов. Пример: Label 1 / food / banana.
- Tuple (Кортеж)
- Структурированная единица хранения данных, состоящая из двух или более связанных сегментов.
- Tuples Database (База данных кортежей)
- Хранилище персональных данных пользователя в формате tuples.
Ключевые утверждения (Анализ Claims)
Claim 1 (Независимый пункт): Описывает компьютерную систему для ответа на запрос пользователя.
- Система получает естественно-языковое утверждение (natural language declaration) от пользователя.
- Генерируется первый кортеж (first tuple) на основе первого сегмента утверждения. Этот кортеж включает сегмент и ярлык (label) для этого утверждения.
- Генерируется второй кортеж (second tuple) на основе второго сегмента утверждения. Этот кортеж включает второй сегмент (отличный от первого) и тот же самый ярлык (label). Ярлык связывает первый и второй кортежи.
- Первый и второй кортежи сохраняются в ассоциации с пользователем.
- Система получает естественно-языковой запрос (natural language query) от пользователя.
- В ответ на запрос генерируется вывод (inference). Генерация основана на: первом кортеже, втором кортеже (используются вместе, так как связаны ярлыком) и дополнительной информации из внешнего ресурса (например, Knowledge Graph).
- Вывод содержит информацию, персональную для пользователя.
- Вывод предоставляется пользователю.
Ядро изобретения — это метод структурирования произвольных утверждений пользователя в связанные кортежи с помощью общего ярлыка и последующее использование этих связанных данных совместно с внешними знаниями для ответа на запросы.
Claim 2 (Зависимый от 1): Детализирует процесс генерации вывода.
- Определяется первая информация (из внешнего ресурса), связанная с первым сегментом кортежа.
- Определяется вторая информация (из внешнего ресурса), связанная со вторым сегментом кортежа.
- Вывод генерируется на основе комбинации первой и второй информации.
Это описывает механизм интеграции с Knowledge Graph: система ищет факты, связанные с каждым компонентом персональных данных, и синтезирует ответ.
Claim 15 (Независимый пункт): Описывает альтернативный метод, фокусируясь на процессе генерации вывода.
- Получение утверждения и генерация как минимум первого и второго кортежей на основе разных сегментов одного и того же утверждения.
- Сохранение кортежей.
- Получение запроса.
- Генерация вывода на основе кортежей и дополнительной информации. Процесс включает определение первой информации, связанной с сегментом первого кортежа, и второй информации, связанной с сегментом второго кортежа, и их комбинирование.
Где и как применяется
Изобретение применяется в компонентах поиска, ответственных за понимание языка и генерацию персонализированных ответов.
INDEXING – Индексирование и извлечение признаков
На этом этапе создаются и обновляются Knowledge Graph и Entity Graph, которые служат источником фактов (additional resource) для системы. Также здесь могут рассчитываться и храниться Grammar rules.
QUNDERSTANDING – Понимание Запросов
Основной этап применения. Система использует NLP и Grammar rules для разбора (dividing into segments) как входящих утверждений (declarations), так и запросов (queries). Происходит генерация и сохранение персональных tuples в Tuples Database.
METASEARCH – Метапоиск и Смешивание / RERANKING – Переранжирование
На этих этапах (или в рамках специализированной вертикали персонализированного поиска/ассистента) происходит генерация финального ответа (inference). Система извлекает персональные tuples, интегрирует их с данными из Knowledge Graph и формирует ответ, который предоставляется пользователю. Это не стандартное ранжирование веб-документов, а генерация ответа.
Входные данные:
- Естественно-языковые утверждения пользователя (Natural language declarations).
- Естественно-языковые запросы пользователя (Natural language queries).
- Grammar rules.
- Данные из Knowledge Graph / Entity Graph.
- Данные профиля пользователя, социальный граф, email, логи поиска (как источники для генерации personal tuples).
Выходные данные:
- Структурированные tuples, сохраненные в ассоциации с пользователем.
- Персонализированный ответ или вывод (Inference).
На что влияет
- Специфические запросы: Наибольшее влияние на информационные запросы, требующие личного контекста (например, здоровье, финансы, личная продуктивность). Запросы типа «Сколько я спал?», «Достаточно ли я тренируюсь?».
- Конкретные типы контента: Влияет на генерацию прямых ответов (Direct Answers) и ответы голосовых ассистентов. Косвенно влияет на контент, который служит источником для Knowledge Graph (справочники, энциклопедии, базы данных).
Когда применяется
- Условия применения: Алгоритм генерации tuples применяется при получении естественно-языкового утверждения от пользователя (ввод текста, голосовая команда).
- Триггеры активации (для ответа): Активируется при получении запроса, для ответа на который система может использовать сохраненные персональные tuples пользователя в сочетании с Knowledge Graph. Также может активироваться проактивно для генерации Pushed Inferences (периодически или при получении нового утверждения).
Пошаговый алгоритм
Процесс А: Агрегация информации (Генерация Tuples)
- Получение данных: Система получает естественно-языковое утверждение от пользователя.
- Доступ к правилам: Система загружает набор Grammar rules.
- Сегментация: Утверждение разделяется на сегменты на основе грамматических правил (идентификация субъектов, действий, объектов, количества, времени и т.д.).
- Генерация кортежей (Tuples/Triples):
- Выбирается первый сегмент (например, идентификатор пользователя).
- Генерируется уникальный ярлык (label) для данного утверждения.
- Генерируется первый кортеж, включающий первый сегмент, второй сегмент (например, действие) и ярлык.
- Выбирается следующий необработанный сегмент (например, объект).
- Генерируется новый кортеж, включающий этот сегмент, его характеристику (например, тип объекта) и тот же ярлык.
- Процесс повторяется, пока все сегменты утверждения не будут обработаны и связаны через общий ярлык.
- Сохранение: Сгенерированные кортежи сохраняются в Tuples Database в ассоциации с пользователем.
Процесс Б: Генерация ответа на запрос (Inference Generation)
- Получение запроса: Система получает естественно-языковой запрос.
- Сегментация запроса: Запрос разделяется на query segments с помощью Grammar rules.
- Выбор сегментов запроса: Идентифицируются ключевые сегменты запроса.
- Получение персональных данных: Система извлекает tuples, ассоциированные с пользователем.
- Выбор релевантных кортежей: Отбираются кортежи, связанные с выбранными сегментами запроса (например, с использованием vector distance или cosine distance для оценки схожести).
- Выбор сегментов кортежей: Из отобранных кортежей извлекаются ключевые сегменты (tuple segments).
- Запрос к Knowledge Graph: Система запрашивает Knowledge Graph или Entity Graph для получения информации, связанной как с query segments, так и с tuple segments.
- Генерация вывода (Inference): Система синтезирует ответ, комбинируя информацию из персональных кортежей и факты из Knowledge Graph.
- Предоставление ответа: Сгенерированный вывод отображается пользователю.
Какие данные и как использует
Данные на входе
Патент фокусируется на обработке пользовательского ввода и использовании структурированных баз знаний.
- Контентные факторы: Текст естественно-языковых утверждений и запросов. Система анализирует слова, фразы, части речи, символы (например, математические), структуру предложений.
- Пользовательские факторы: Идентификатор пользователя (критичен для привязки tuples). Патент также упоминает использование профиля пользователя, его социального графа (social graph information), возраста, пола, хобби и интересов для генерации personal tuples.
- Источники данных (упомянутые для генерации tuples): Электронные письма (emails), поисковые запросы (search queries), блоги, персональные электронные дневники, контент в социальных сетях.
Какие метрики используются и как они считаются
Патент не описывает метрики ранжирования (Ranking Scores), так как он не фокусируется на ранжировании документов. Он описывает метрики для сопоставления данных:
- Метрики схожести: Упоминается возможность использования vector distance (векторное расстояние) или cosine distance (косинусное расстояние) для определения того, какие tuples пользователя релевантны сегментам входящего запроса. Кортежи с расстоянием ниже порогового значения отбираются для дальнейшей обработки.
- Классификация и структурирование: Система использует Grammar rules для классификации слов (части речи, типы сущностей) и структурирования их в tuples и triples.
Выводы
- Фокус на персонализации, а не на ранжировании: Патент описывает инфраструктуру для глубоко персонализированного поиска, основанного на личных данных пользователя. Он не дает прямых рекомендаций по оптимизации сайтов для попадания в ТОП общего веб-индекса.
- Структурирование данных в формате Triples: Патент детально описывает, как Google может разбирать естественно-языковой текст в структурированные факты (tuples/triples), связанные общим контекстом (label). Это дает важное понимание того, как Google стремится хранить информацию — не как текст, а как набор утверждений (Subject-Predicate-Object).
- Критическая роль Knowledge Graph: Knowledge Graph и Entity Graph выступают центральным элементом для интерпретации пользовательских данных и предоставления фактологической основы для ответов. Без Knowledge Graph система не сможет сделать вывод из персональных данных.
- Продвинутое NLP и Grammar Rules: Система полагается на сложные грамматические правила для точной сегментации и интерпретации нюансов языка (время, количество, контекст), что подчеркивает важность глубокого понимания NLP в поиске.
- Генерация ответов, а не ссылок: Цель системы — сгенерировать вывод (inference) или прямой ответ, а не предоставить список релевантных документов. Это подтверждает тренд на снижение зависимости пользователя от кликов по «синим ссылкам» для информационных запросов.
Практика
Best practices (это мы делаем)
Хотя патент фокусируется на персональных данных, он дает стратегические инсайты по оптимизации публичного контента для лучшего понимания системами Google.
- Оптимизация под Knowledge Graph (Entity Optimization): Необходимо работать над тем, чтобы ключевые сущности вашего бизнеса (продукты, услуги, бренд, авторы) и связанные с ними факты были включены в Knowledge Graph. Это увеличивает вероятность того, что Google будет использовать вашу информацию как достоверный источник для генерации ответов.
- Структурирование контента в виде фактов: Создавайте контент так, чтобы он легко разбирался на утверждения (triples). Используйте четкие формулировки, таблицы, списки и определения. Это помогает системам NLP извлекать факты, аналогично тому, как описано в патенте.
- Использование Schema Markup: Активно внедряйте микроразметку для однозначного определения сущностей, их атрибутов и взаимосвязей. Это напрямую помогает Google парсить контент в структурированные данные, схожие с tuples.
- Создание контента, отвечающего на сложные вопросы: Разрабатывайте контент, который предоставляет исчерпывающую информацию о сущностях и может служить основой для сложных выводов (например, сравнения, расчеты, рекомендации).
Worst practices (это делать не надо)
- Игнорирование структурированных данных: Отказ от использования микроразметки и четкой структуры контента затрудняет извлечение фактов системами Google.
- Фокус только на ключевых словах: Создание контента, оптимизированного под текстовое соответствие ключевым словам, но игнорирующего семантические связи и сущности. Системы, основанные на Knowledge Graph, работают с сущностями, а не строками.
- Создание «водянистого» контента без фактов: Публикация текстов, из которых невозможно извлечь конкретные, проверяемые утверждения (tuples/triples).
Стратегическое значение
Патент подтверждает стратегический приоритет Google на переход от индекса текстовых строк к индексу сущностей и фактов (Entity-First Indexing). Он демонстрирует, что идеальная форма хранения информации для Google — это структурированные кортежи или тройки. Для SEO это означает, что долгосрочная стратегия должна быть направлена на создание четко структурированного, фактологического контента, который легко интегрируется в Knowledge Graph. Также патент подчеркивает развитие генеративных ответов, что может вести к снижению трафика на сайты по информационным запросам, так как пользователи получают ответы прямо в выдаче.
Практические примеры
Сценарий: Оптимизация сайта с рецептами и пищевой ценностью
Сайт должен обеспечить, чтобы Google мог легко извлечь данные для использования в системах, подобных описанной в патенте.
- Действие: Для страницы рецепта «Банановый хлеб» внедрить разметку Recipe.
- Детализация: Внутри разметки максимально точно указать все ингредиенты (ingredients) и, самое главное, информацию о пищевой ценности (nutrition, включая calories, fatContent, proteinContent, carbohydrateContent).
- Структурирование контента: На самой странице представить эту информацию в виде четкой таблицы или списка.
- Ожидаемый результат: Google извлекает эти данные и добавляет их в Knowledge Graph/Entity Graph. Если пользователь скажет Google Assistant: «Я съел кусок бананового хлеба» (Declaration), а затем спросит: «Сколько углеводов я сегодня съел?» (Query), система Google сможет использовать факты о банановом хлебе (полученные с вашего сайта) для генерации точного персонализированного ответа (Inference). Ваш сайт получает признание как авторитетный источник данных.
Вопросы и ответы
Описывает ли этот патент алгоритмы ранжирования сайтов в Google Поиске?
Нет, этот патент не описывает, как ранжируются публичные веб-сайты в основном индексе Google. Он фокусируется исключительно на том, как Google обрабатывает, структурирует и хранит личную информацию пользователя (полученную из его утверждений) и использует ее для генерации персонализированных ответов, комбинируя с данными из Knowledge Graph.
Что такое «Tuple» (Кортеж) и «Triple» (Тройка) в контексте этого патента и SEO?
Tuple — это структурированная единица данных, состоящая из нескольких связанных сегментов. Triple — это кортеж из трех частей, часто в формате Субъект-Предикат-Объект (например, «Банан / содержит / Калий»). В контексте SEO это важно, потому что патент показывает, что Google стремится разложить любой текст на такие атомарные факты для хранения в Knowledge Graph. Оптимизация контента сводится к тому, чтобы облегчить Google извлечение этих фактов.
Как этот патент связан с Google Assistant или голосовым поиском?
Патент описывает базовую технологию, которая идеально подходит для голосовых ассистентов. Google Assistant может принимать утверждения пользователя (например, логгирование еды, тренировок) и сохранять их как tuples. Затем он может отвечать на сложные контекстные вопросы, требующие анализа этой истории, что и является основным сценарием использования, описанным в патенте.
Какое значение имеет «Label» (Ярлык) в этом патенте?
Ярлык критически важен. Он используется для связывания всех фактов (tuples), извлеченных из одного и того же утверждения. Например, если вы сказали «Вчера я съел банан», ярлык свяжет факт о еде (банан), количество (один) и время (вчера). Это позволяет системе сохранить контекст исходного утверждения и использовать все связанные факты вместе при генерации ответа.
Как SEO-специалист может использовать знания из этого патента на практике?
Ключевое применение — это оптимизация под Knowledge Graph. Необходимо структурировать контент на сайте так, чтобы он был ясным, фактологичным и легко разбирался на triples. Активное использование микроразметки (Schema.org) помогает Google однозначно интерпретировать сущности и их атрибуты, что увеличивает шансы на использование вашего контента в качестве источника фактов для генерации ответов.
Что такое «Grammar rules» и можем ли мы на них повлиять?
Grammar rules — это внутренние правила Google для NLP, используемые для разбора предложений на сегменты и интерпретации их значения (например, понимание времени, количества, частей речи). Мы не можем напрямую влиять на эти правила, но мы можем облегчить их работу, используя чистый, грамматически правильный и однозначный язык в нашем контенте.
Патент упоминает использование email и логов поиска пользователя. Что это значит?
Это означает, что система может генерировать персональные tuples не только из прямых утверждений пользователя, но и анализируя его другую активность (с его разрешения). Например, она может извлечь факты о бронировании отеля из email или понять интересы пользователя из истории поиска, сохраняя эту информацию в структурированном виде для последующего использования в персонализированных ответах.
Что такое «Pushed Inferences» (Принудительные выводы)?
Это проактивные уведомления или выводы, которые система генерирует без прямого запроса пользователя. Например, если система анализирует ваши tuples о еде и замечает, что вы постоянно потребляете слишком много сахара (сравнивая с данными Knowledge Graph), она может выдать предупреждение или рекомендацию, даже если вы об этом не спрашивали.
Упоминаются ли в патенте метрики схожести, такие как «cosine distance»?
Да, патент упоминает использование vector distance или cosine distance. Эти метрики используются для определения того, насколько сохраненные персональные tuples пользователя релевантны его текущему запросу. Это механизм обеспечения релевантности при извлечении персонального контекста.
Подтверждает ли этот патент важность E-E-A-T?
Косвенно. Патент подчеркивает зависимость системы от точности данных в Knowledge Graph для генерации выводов. Чтобы информация попала в Knowledge Graph и использовалась как источник истины, она должна исходить из авторитетных и надежных источников. Таким образом, E-E-A-T критически важен для того, чтобы стать частью этой экосистемы генерации ответов.