SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google автоматически генерирует персонализированные "псевдо-биографии" для экспертов в результатах поиска

GENERATING SNIPPETS FOR PROMINENT USERS FOR INFORMATION RETRIEVAL QUERIES (Генерация сниппетов для авторитетных пользователей по поисковым запросам)
  • US9087130B2
  • Google LLC
  • 2012-10-04
  • 2015-07-21
  • EEAT и качество
  • SERP
  • Персонализация
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует систему для идентификации экспертов (Authoritative Users) и автоматического создания сниппетов, объясняющих их релевантность конкретному запросу. Эти сниппеты, или «псевдо-биографии», генерируются офлайн путем анализа профилей и публикаций экспертов в компьютерных сервисах (например, социальных сетях) и отображаются в поисковой выдаче для подтверждения их экспертизы.

Описание

Какую проблему решает

Патент решает задачу предоставления контекстной информации о том, почему конкретный пользователь, определенный как «авторитетный» (Authoritative User или эксперт), отображается в результатах поиска по определенному запросу. Цель — улучшить пользовательский опыт, позволяя быстро оценить релевантность и экспертизу этого человека непосредственно в контексте поискового запроса, а также стимулировать взаимодействие с компьютерными сервисами (например, социальными сетями).

Что запатентовано

Запатентована система и метод автоматической офлайн-генерации текстовых сниппетов, называемых «псевдо-биографиями» (pseudo-biography). Эти сниппеты генерируются для конкретных пар «Авторитетный пользователь» (AU) и «Триггерный запрос» (TQ). Система извлекает информацию из профилей и активности пользователей (User Data), выбирает наиболее релевантные фрагменты текста и компилирует их в сниппет, оптимизируя его длину и информативность, избегая при этом дублирования контента.

Как это работает

Система работает преимущественно в офлайн-режиме:

  • Идентификация: Определяются триггерные запросы (TQ) и связанные с ними авторитетные пользователи (AU).
  • Извлечение данных: Данные из профиля (Profile Data) и активность пользователя, например, посты (Item Data), обрабатываются, очищаются и сохраняются как «текстовые фрагменты» (Text Pieces).
  • Поэтапная генерация: Для каждой пары (AU, TQ) система итеративно ищет релевантные Text Pieces. Приоритет отдается данным профиля перед постами, а точному совпадению запроса — перед синонимами.
  • Сборка и уточнение: Найденные фрагменты (Snippet Pieces) объединяются. Система проверяет длину сниппета («достаточность» Sufficiency) и сходство между фрагментами (Similarity Coefficient), чтобы избежать повторов.
  • Snippet Smearing: Если сниппет все еще недостаточен, система может позаимствовать сниппет, созданный для этого же AU, но по синонимичному TQ.
  • Отображение: Когда пользователь вводит TQ, система отображает предварительно сгенерированный сниппет.

Актуальность для SEO

Высокая. Хотя конкретная реализация, возможно, была связана с Google+ (учитывая дату подачи), лежащие в ее основе концепции крайне актуальны. Идентификация авторитетных сущностей (людей), понимание их экспертизы из различных источников и визуализация этой экспертизы в SERP (например, в Панелях знаний, блоках Perspectives) являются ключевыми компонентами E-E-A-T и современного поиска.

Важность для SEO

Патент имеет важное значение для понимания того, как Google интерпретирует и отображает сигналы экспертизы (E-E-A-T). Он напрямую влияет на стратегии Entity SEO и продвижения авторов. Контроль над исходными данными — тем, как заполнены публичные профили и какая активность ведется автором, — становится критически важным, поскольку именно эти данные используются для генерации сниппетов, представляющих эксперта в поиске.

Детальный разбор

Термины и определения

Authoritative User (AU) (Авторитетный пользователь)
Пользователь одного или нескольких компьютерных сервисов (например, социальной сети), который был определен как авторитет или эксперт по одной или нескольким темам.
Trigger Query (TQ) (Триггерный запрос)
Заранее определенный запрос, который при получении поисковой системой инициирует отображение одного или нескольких связанных с ним AU.
Snippet (Сниппет)
Группа текста, отображаемая вместе с AU в результатах поиска. Специфичен как для пользователя, так и для запроса.
Pseudo-biography (Псевдо-биография)
Термин, используемый в патенте для описания сниппета. Представляет собой биографию AU в контексте конкретного запроса, часто состоящую из фрагментов предложений, соединенных многоточием.
User Data (Пользовательские данные)
Исходные данные для генерации сниппетов. Включают Profile Data и Item Data.
Profile Data (Данные профиля)
Информация, предоставленная пользователем в своем профиле (например, профессия, образование, биография, хобби).
Item Data (Данные активности/публикаций)
Цифровой контент, распространяемый пользователем в сервисе (например, посты, комментарии).
Text Piece (Текстовый фрагмент)
Строка текста, полученная путем обработки и очистки User Data. Исходный материал для поиска релевантных частей сниппета.
Snippet Piece (Фрагмент сниппета)
Text Piece (или его часть), который определен как релевантный конкретному TQ (например, содержит запрос или его синоним) и используется для сборки финального сниппета.
Sufficiency (Достаточность)
Критерий оценки качества сниппета, обычно основанный на количестве символов. Если сниппет слишком короткий, он считается «недостаточным» (insufficient).
Similarity Coefficient (Коэффициент сходства)
Метрика (например, Edit Distance), используемая для сравнения уже собранного сниппета с новым Snippet Piece. Используется для предотвращения дублирования контента в сниппете.
Snippet Smearing («Размазывание» сниппета)
Процесс, при котором, если для пары (AU, TQ1) не удается сгенерировать достаточный сниппет, система использует сниппет, сгенерированный для того же AU, но по другому, синонимичному запросу (AU, TQ2).

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной процесс генерации и модификации сниппетов.

  1. Система получает данные о триггерных запросах (TQ) и связанных с ними авторитетных пользователях (AU).
  2. Генерируются пары (TQ, AU).
  3. Для как минимум одной пары:
    1. Генерируется сниппет на основе данных пользователя (User Data).
    2. Определяется, что этот сниппет является «недостаточным» (insufficient).
    3. В ответ на это сниппет модифицируется для создания «пересмотренного сниппета» (revised snippet).
  4. Сниппеты (включая пересмотренный) сохраняются в памяти.

Ядром изобретения является не просто генерация сниппета, а процесс его итеративного улучшения (модификации), если исходный результат признан неудовлетворительным (недостаточным).

Claim 2 (Зависимый): Детализирует процесс генерации сниппета.

Генерация включает извлечение Text Pieces, идентификацию релевантных Snippet Pieces на основе TQ и их объединение (appending) для создания сниппета.

Claims 3, 4, 5 (Зависимые): Детализируют процесс модификации (улучшения) сниппета.

Модификация включает выбор нового Snippet Piece и принятие решения о его добавлении. Это решение (Claim 4) основывается на Similarity Score (оценке сходства) между текущим сниппетом и новым фрагментом для избежания дублирования. Добавление может включать (Claim 5) удаление ранее добавленного фрагмента и добавление нового.

Claim 7 (Зависимый от 1): Описывает альтернативный метод модификации (Snippet Smearing).

Если сниппет недостаточен, система идентифицирует другой сниппет, связанный с этим же AU (но с другим TQ), и использует его в качестве пересмотренного сниппета.

Где и как применяется

Изобретение в основном описывает офлайн-процессы, которые подготавливают данные для использования на финальных этапах формирования выдачи.

INDEXING – Индексирование и извлечение признаков
На этом этапе происходит сбор, анализ и индексация User Data (Profile Data и Item Data) из компьютерных сервисов (например, социальных сетей). Данные очищаются и преобразуются в Text Pieces. Также в ходе связанных офлайн-процессов происходит идентификация Authoritative Users и их привязка к Trigger Queries.

Основной процесс (Офлайн-вычисления)
Большая часть описанного в патенте алгоритма (генерация, оценка достаточности, модификация, Snippet Smearing) выполняется офлайн, до получения запроса пользователем. Результатом является база данных готовых сниппетов для каждой пары (AU, TQ).

METASEARCH – Метапоиск и Смешивание
Во время обработки запроса пользователя, если запрос совпадает с TQ, система активирует соответствующий вертикальный блок или элемент SERP. Система извлекает список релевантных AU и их предварительно сгенерированные, специфичные для данного запроса сниппеты для отображения.

Входные данные:

  • Списки Trigger Queries и ассоциированных Authoritative Users.
  • Profile Data для каждого AU (структурированные данные профиля).
  • Item Data для каждого AU (посты, комментарии).
  • Базы данных синонимов и вариантов запросов.

Выходные данные:

  • База данных сниппетов, где каждый сниппет ассоциирован с конкретной парой (AU, TQ).

На что влияет

  • Конкретные типы контента: В первую очередь влияет на отображение профилей пользователей, авторов и экспертов (сущностей типа Person) в результатах поиска.
  • Специфические запросы: Применяется для информационных запросов (TQs), где важна экспертиза и где пользователи могут искать авторитетные мнения.
  • Конкретные ниши или тематики: YMYL-тематики, технологии, хобби, наука — любые ниши, где существуют идентифицируемые эксперты (AU).

Когда применяется

  • Условия генерации (офлайн): Когда пользователь идентифицирован как AU для определенного TQ, система пытается сгенерировать для него сниппет.
  • Условия модификации (офлайн): Активируются, если сгенерированный сниппет не соответствует критериям «достаточности» (Sufficiency), например, слишком короткий, или если новые фрагменты слишком похожи на уже имеющиеся (высокий Similarity Coefficient).
  • Триггер активации (в поиске): Когда пользователь вводит запрос, который система сопоставляет с сохраненным Trigger Query.

Пошаговый алгоритм

Алгоритм состоит из офлайн-процессов подготовки данных и генерации сниппетов.

Процесс А: Подготовка данных (Офлайн)

  1. Сбор данных AU: Для каждого идентифицированного AU система получает Profile Data и Item Data из соответствующих сервисов.
  2. Обработка Profile Data: Данные из различных разделов профиля (Профессия, Образование, Биография и т.д.) извлекаются. Разделам присваивается ранг важности (например, Профессия важнее Хобби).
  3. Обработка Item Data: Извлекается контент из постов и комментариев пользователя.
  4. Очистка и генерация Text Pieces: Все собранные данные очищаются (удаление пунктуации, стоп-слов, ссылок). Генерируются чистые текстовые фрагменты (Text Pieces).
  5. Сохранение: Text Pieces сохраняются с привязкой к AU и источнику.

Процесс Б: Генерация сниппетов (Офлайн)

  1. Итерация по TQ и AU: Система обрабатывает все пары (AU, TQ).
  2. Получение синонимов: Для текущего TQ система получает список синонимов и вариантов.
  3. Генерация сниппета (Процесс В): Запускается детальный процесс генерации сниппета для пары (AU, TQ).
  4. Проверка и сохранение: Если сгенерированный сниппет не пустой, он сохраняется в базе данных.

Процесс В: Детальная генерация сниппета (Итеративная сборка)

Цель — собрать сниппет, превышающий порог достаточности (длины), используя приоритетные источники и избегая дублирования.

  1. Фаза 1: Profile Data + Точный TQ.
    1. Идентификация Snippet Pieces из Profile Data, содержащих точное вхождение TQ.
    2. Сборка сниппета: Фрагменты объединяются, начиная с разделов профиля с наивысшим рангом. На каждом шаге проверяется Similarity Coefficient.
    3. Проверка достаточности. Если достаточно, процесс завершается.
  2. Фаза 2: Item Data + Точный TQ. (Если недостаточно)
    1. Идентификация Snippet Pieces из Item Data, содержащих точный TQ.
    2. Сниппет дополняется этими фрагментами (с проверкой схожести).
    3. Проверка достаточности. Если достаточно, процесс завершается.
  3. Фаза 3: Profile/Item Data + Синонимы TQ. (Если недостаточно)
    1. Идентификация Snippet Pieces из всех данных, содержащих синонимы или варианты TQ.
    2. Сниппет дополняется (с проверкой схожести).
    3. Проверка достаточности. Если достаточно, процесс завершается.
  4. Фаза 4: Profile/Item Data (Общие). (Если недостаточно)
    1. Сниппет дополняется оставшимися Snippet Pieces (даже если они не содержат TQ или синонимы), чтобы набрать длину.
    2. Проверка достаточности. Если достаточно, процесс завершается.
  5. Фаза 5: Snippet Smearing. (Если недостаточно)
    1. Система ищет другие сниппеты, сгенерированные для этого же AU по синонимичным TQ.
    2. Если такой сниппет найден, он копируется для текущего TQ.

Какие данные и как использует

Данные на входе

  • Контентные и Структурные факторы (Profile Data): Текст из структурированных разделов профиля пользователя. В патенте упоминаются: Occupation (Профессия), Employment (Занятость), Work Experience (Опыт работы), Education (Образование), Places Lived (Места проживания), Hobbies (Хобби), Personal Biography (Личная биография).
  • Контентные факторы (Item Data): Текст из цифрового контента, созданного пользователем: посты, комментарии.
  • Системные данные: Заранее определенные списки Trigger Queries и ассоциированных Authoritative Users. Базы данных синонимов.

Какие метрики используются и как они считаются

  • Ранг разделов профиля (Order of Importance): Предварительно определенный порядок приоритета для источников Profile Data. Используется для выбора первых фрагментов сниппета. Пример порядка из патента (от высшего к низшему): Occupation, Education, Work Experience, Personal Biography, Hobbies, Employment, Places Lived.
  • Sufficiency (Достаточность): Метрика, основанная на количестве символов в сгенерированном сниппете. Сравнивается с пороговым значением. Если длина ниже порога, активируются следующие фазы генерации или модификации.
  • Similarity Coefficient (Коэффициент сходства): Метрика, рассчитываемая между текущим сниппетом и новым Snippet Piece. В патенте упоминается Edit Distance (редакционное расстояние) как пример реализации. Используется для предотвращения дублирования контента в сниппете.

Выводы

  1. Автоматизация контекстных биографий: Google располагает механизмом для полностью автоматического создания «псевдо-биографий» экспертов, адаптированных под конкретный поисковый запрос. Это позволяет алгоритмически визуализировать E-E-A-T в SERP.
  2. Четкая приоритизация источников данных: Система имеет строгую иерархию предпочтений. Структурированные данные профиля (Profile Data) предпочтительнее активности (Item Data). Точное совпадение запроса имеет приоритет над синонимами.
  3. Важность разделов профиля: Внутри Profile Data приоритет отдается разделам, явно указывающим на экспертизу (Профессия, Образование, Опыт работы).
  4. Оптимизация качества отображения: Система активно работает над улучшением качества сниппетов, используя механизмы для обеспечения достаточной длины (Sufficiency) и предотвращения дублирования контента (Similarity Coefficient).
  5. Snippet Smearing как механизм обеспечения полноты: Возможность использовать сниппеты, созданные для синонимичных запросов, гарантирует, что авторитетный пользователь будет представлен информативно, даже если в его данных нет прямого упоминания конкретной формулировки запроса.
  6. Зависимость от офлайн-вычислений: Генерация сниппетов происходит заранее, что позволяет быстро отображать их в результатах поиска, но может приводить к задержкам в обновлении информации.

Практика

Best practices (это мы делаем)

Рекомендации направлены на улучшение сигналов E-E-A-T и оптимизацию представления авторов (Entity SEO).

  • Комплексная оптимизация профилей экспертов: Необходимо тщательно и стратегически заполнять все доступные профили авторов (страницы «Об авторе» на сайте, профили в релевантных социальных и профессиональных сетях). Эти данные являются основным источником (Profile Data) для генерации сниппетов.
  • Фокус на приоритетных разделах профиля: Поскольку система приоритизирует разделы «Occupation» (Профессия) и «Education» (Образование), крайне важно, чтобы эти разделы четко и с использованием релевантных ключевых терминов (потенциальных TQ) описывали основную экспертизу автора.
  • Создание четких биографических описаний: Биографии (Personal Biography) должны содержать четкие утверждения об опыте и достижениях. Система извлекает Snippet Pieces, поэтому важна информативность отдельных фрагментов.
  • Подтверждение экспертизы через активность (Item Data): Авторы должны регулярно публиковать контент (статьи, посты), соответствующий их экспертизе. Эта активность служит резервным источником данных для сниппетов, если данных профиля недостаточно.
  • Использование синонимов и семантическая связность: При описании экспертизы полезно использовать различные формулировки и синонимы. Это помогает на поздних фазах генерации и повышает эффективность механизма Snippet Smearing между связанными темами.

Worst practices (это делать не надо)

  • Пустые или неинформативные профили авторов: Игнорирование биографических данных приведет к генерации коротких и некачественных сниппетов или полному отсутствию данных для подтверждения экспертизы.
  • Дублирование информации в разных разделах: Поскольку система использует Similarity Coefficient для борьбы с повторами, многократное повторение одной и той же информации разными словами не поможет сделать сниппет длиннее.
  • Размытые или слишком креативные описания должностей: Использование нестандартных названий профессий или жаргона вместо четкого описания роли может помешать системе идентифицировать релевантные Snippet Pieces.

Стратегическое значение

Патент подтверждает стратегическую важность управления цифровой идентичностью авторов и экспертов как части E-E-A-T. Система стремится найти и показать пользователю доказательства экспертизы прямо в SERP, и данный патент описывает, как эти доказательства автоматически извлекаются и форматируются. Экспертиза должна быть не только продемонстрирована в контенте, но и четко сформулирована в источниках, которые Google использует для валидации автора.

Практические примеры

Сценарий: Оптимизация профиля эксперта по Data Science для запросов [Data Science] и [Machine Learning]

  1. Анализ (Цель): Эксперт должен быть идентифицирован как AU для TQ "Data Science" и "Machine Learning".
  2. Оптимизация Profile Data (Приоритет 1):
    1. Occupation: Обновить на "Lead Data Scientist, specialized in Machine Learning models".
    2. Education: Указать "M.S. in Data Science".
    3. Biography: Добавить: "10+ years in Data Science. Speaker at international Machine Learning conferences."
  3. Оптимизация Item Data (Приоритет 2):
    1. Регулярно публиковать посты и статьи, используя термины "Data Science", "Machine Learning", а также синонимы ("AI", "ML").
  4. Ожидаемый результат (Сниппет для TQ="Data Science"): Система использует данные Фазы 1 и генерирует сниппет: "Lead Data Scientist... M.S. in Data Science... 10+ years in Data Science. Speaker at international..."
  5. Эффект Snippet Smearing: Если по какой-то причине сниппет для "Data Science" окажется недостаточным, но для "Machine Learning" будет сгенерирован качественный сниппет, система может использовать сниппет от "Machine Learning" для запроса "Data Science", так как эти темы тесно связаны.

Вопросы и ответы

Какие источники данных важнее для генерации сниппета эксперта: информация в профиле или его публикации?

Информация в профиле (Profile Data) имеет приоритет. Алгоритм сначала пытается сгенерировать сниппет из структурированных данных профиля (биография, работа, образование). Публикации или посты (Item Data) используются только в том случае, если данных профиля недостаточно для создания сниппета достаточной длины.

Имеет ли значение, в каком именно разделе профиля указана экспертиза?

Да, имеет большое значение. Патент описывает ранжирование разделов профиля по важности. Информация из приоритетных разделов (в примере это Профессия, Образование, Опыт работы) будет предпочтительнее информации из менее важных разделов (например, Хобби или Места проживания).

Нужно ли использовать точные ключевые слова в профиле, или достаточно синонимов?

Предпочтительнее использовать точные ключевые слова (потенциальные Trigger Queries). Алгоритм в первую очередь ищет точное совпадение запроса в данных профиля (Фаза 1). Синонимы и варианты используются только на более поздних этапах (Фаза 3), если точных совпадений недостаточно.

Что такое «псевдо-биография» в контексте этого патента?

Это автоматически сгенерированное описание авторитетного пользователя, релевантное конкретному запросу. Оно называется «псевдо», потому что обычно состоит из склеенных фрагментов предложений (Snippet Pieces), извлеченных из разных источников (профиля, постов) и соединенных многоточием, а не является связным биографическим текстом.

Как система борется с повторением информации в сниппетах?

Система использует коэффициент схожести (Similarity Coefficient), например, редакционное расстояние, при добавлении каждого нового фрагмента. Если новый фрагмент слишком похож на уже добавленный контент, система может решить не добавлять его, чтобы избежать избыточности и дублирования.

Что такое Snippet Smearing и как это влияет на SEO?

Snippet Smearing — это механизм, при котором система копирует сниппет, созданный для одного запроса, и использует его для другого синонимичного запроса, если для второго не удалось создать качественный сниппет. Это выгодно для SEO, так как позволяет эксперту быть видимым по широкому спектру синонимичных запросов, даже если его профиль оптимизирован только под часть из них.

Как быстро обновляются эти сниппеты после изменения профиля?

Патент указывает, что весь процесс генерации сниппетов происходит офлайн. Это означает, что обновление произойдет только после того, как система повторно соберет данные пользователя (User Data) и выполнит процесс перегенерации сниппетов. Мгновенного обновления не происходит.

Актуален ли этот патент после закрытия Google+?

Хотя конкретная реализация, вероятно, предназначалась для Google+, описанные механизмы анализа авторского контента являются фундаментальными. Эти методы могут применяться к данным из любых публичных источников (Twitter, LinkedIn, авторские страницы на сайтах) для генерации описаний в Knowledge Panels и других SERP features, связанных с E-E-A-T.

Как Google определяет, кто является "Авторитетным пользователем" (AU)?

Этот патент не описывает процесс идентификации AUs. Он принимает список авторитетных пользователей и их связь с темами (TQs) как входные данные. Патент фокусируется исключительно на процессе генерации сниппетов, когда пары (AU, TQ) уже определены.

Может ли система сгенерировать сниппет, который не содержит ключевых слов из запроса?

Да, это возможно, хотя и не предпочтительно. Если система не находит достаточно фрагментов с точным совпадением запроса или его синонимов (Фазы 1-3), она может перейти к Фазе 4 и использовать общие текстовые фрагменты из Profile Data или Item Data, которые не содержат терминов запроса, чтобы достичь нужной длины сниппета.

Похожие патенты

Как Google персонализирует сниппеты в выдаче, используя профиль интересов пользователя
Google использует механизм для генерации сниппетов в поисковой выдаче, основанный не только на терминах запроса, но и на профиле интересов пользователя. Система анализирует документ, находит термины, соответствующие интересам пользователя, и выделяет их в сниппете. Это призвано повысить релевантность сниппета для конкретного пользователя и лучше отразить содержание документа в контексте его интересов.
  • US8631006B1
  • 2014-01-14
  • Персонализация

  • SERP

  • Семантика и интент

Как Google обучается распознавать синонимы, анализируя текст сниппетов в результатах поиска
Google использует текст сниппетов для улучшения систем понимания запросов. Анализируя, какие слова часто появляются в сниппетах релевантных или кликабельных результатов, система выявляет потенциальные синонимы для исходных ключевых слов. Это позволяет автоматически расширять будущие запросы, включая эти синонимы для повышения полноты выдачи.
  • US20140358904A1
  • 2014-12-04
  • Семантика и интент

  • SERP

Как Google генерирует сниппеты для фактических ответов, требуя близости вопроса и ответа в тексте источника
Патент Google описывает систему ответа на фактические запросы (Fact Query Engine). Для подтверждения факта, извлеченного из Fact Repository (аналог Knowledge Graph), система генерирует сниппеты из исходных веб-документов. Ключевое требование: сниппет должен содержать как термины из запроса пользователя, так и термины ответа, причем система предпочитает фрагменты, где они расположены близко друг к другу (Proximity).
  • US7587387B2
  • 2009-09-08
  • Семантика и интент

  • Knowledge Graph

  • SERP

Как Google персонализирует выдачу, определяя ваши аккаунты в соцсетях и показывая контент, которым поделились ваши контакты
Google использует механизм для определения других аккаунтов пользователя в социальных сетях (Кандидатные Идентификаторы), даже если они не были связаны явно. Система анализирует совпадение контактов между известным профилем пользователя и потенциальными аккаунтами. Затем результаты поиска персонализируются путем повышения контента, который был создан или аннотирован (например, расшарен) контактами из этих социальных сетей. Система также может запрашивать подтверждение владения аккаунтом прямо в поисковой выдаче.
  • US8972398B1
  • 2015-03-03
  • Персонализация

  • Поведенческие сигналы

Как Google динамически обогащает сниппеты, ранжируя отзывы, атрибуты и упоминания для обоснования результатов поиска
Google использует фреймворк для обогащения результатов поиска вспомогательной информацией (аннотациями), такой как редакционные упоминания, списки Топ-X, атрибуты товаров и контекстные отзывы. Система использует машинное обучение для оценки и ранжирования этих разнородных данных, чтобы динамически выбрать наиболее полезный дополнительный сниппет. Это позволяет обосновать позицию результата и повысить доверие пользователя.
  • US12164527B2
  • 2024-12-10
  • SERP

Популярные патенты

Как Google ранжирует контент на других языках, основываясь на поведении пользователей с одинаковыми языковыми настройками
Google использует статистику кликов (CTR), сегментированную по языковым предпочтениям пользователей, для корректировки ранжирования. Если пользователи, предпочитающие язык X, часто кликают на результат на языке Y, этот результат будет повышен в выдаче для других пользователей с предпочтением языка X. Это позволяет ранжировать контент, популярный у определенной языковой группы, независимо от языка самого контента.
  • US8375025B1
  • 2013-02-12
  • Мультиязычность

  • Поведенческие сигналы

  • Персонализация

Как Google использует цитирования на веб-страницах для ранжирования книг в основной выдаче
Google использует механизм для определения релевантных книг по общим информационным запросам, даже если пользователь не искал книгу специально. Система анализирует, какие книги цитируются на топовых веб-страницах в выдаче. Книги получают оценку, основанную на авторитетности цитирующих страниц и контексте цитирования, и затем подмешиваются в результаты поиска.
  • US8392429B1
  • 2013-03-05
  • Ссылки

  • SERP

  • EEAT и качество

Как Google использует блокировку сайтов пользователями для персонализации выдачи и как глобальный сигнал ранжирования (Remove List Score)
Google позволяет пользователям удалять нежелательные документы или целые сайты из своей поисковой выдачи. Система агрегирует эти данные о блокировках от множества пользователей и использует их как глобальный сигнал ранжирования — «Remove List Score» — для выявления низкокачественного контента и улучшения качества поиска для всех.
  • US8417697B2
  • 2013-04-09
  • Персонализация

  • Поведенческие сигналы

  • Антиспам

Как Google улучшает результаты поиска, подбирая похожие "идеальные" запросы из логов и структурированных данных
Google идентифицирует запросы, которые стабильно показывают высокое вовлечение пользователей (CTR, долгие клики), и генерирует синтетические запросы из структурированных данных (например, частотного анкорного текста). Когда пользователь вводит похожий, но потенциально плохо сформулированный запрос, Google использует эти "аугментирующие запросы" для предоставления более качественных и релевантных результатов.
  • US9128945B1
  • 2015-09-08
  • SERP

  • Поведенческие сигналы

  • EEAT и качество

Как Google выбирает предлагаемые запросы, анализируя вероятность завершения поиска и коммерческую ценность
Google использует графовую модель для анализа поисковых сессий пользователей. Система определяет, какие уточняющие запросы чаще всего приводят к завершению поиска (становятся «финальным пунктом назначения»). Эти запросы считаются обладающими наибольшей «полезностью» (Utility) и предлагаются пользователю в качестве подсказок или связанных запросов. Система также учитывает коммерческий потенциал этих запросов и может показывать для них релевантные рекламные блоки.
  • US8751520B1
  • 2014-06-10
  • SERP

  • Поведенческие сигналы

  • Семантика и интент

Как Google использует анализ сущностей в результатах поиска для подтверждения интента и продвижения авторитетного контента
Google анализирует сущности (Topics/Entities) и их типы, общие для топовых результатов поиска, чтобы определить истинный интент запроса. Если интент подтверждается этим тематическим консенсусом выдачи, система продвигает "авторитетные кандидаты" (например, полные фильмы). Если консенсуса нет, продвижение блокируется для предотвращения показа нерелевантных результатов.
  • US9213745B1
  • 2015-12-15
  • Семантика и интент

  • EEAT и качество

  • SERP

Как Google персонализирует сниппеты и заголовки в выдаче на основе истории поиска и интересов пользователя
Google может динамически изменять сниппеты и заголовки (Title) результатов поиска, чтобы выделить ту часть контента на странице, которая соответствует известным интересам пользователя (история поиска, демография, недавний контекст). Это позволяет сделать представление выдачи более персонализированным, не обязательно изменяя ранжирование документов.
  • US9235626B2
  • 2016-01-12
  • Персонализация

  • SERP

  • Семантика и интент

Как Google предсказывает, какие сайты будут интересны пользователю на основе его контекста (местоположение, время, интересы) без поискового запроса
Google использует агрегированные данные о поведении пользователей для прогнозирования контента. Система анализирует контекст пользователя (местоположение, время, интересы, историю) и определяет, какие сайты посещают похожие пользователи в аналогичном контексте значительно чаще, чем пользователи в целом. Этот механизм позволяет предлагать релевантный контент без явного запроса (например, в Google Discover).
  • US9195703B1
  • 2015-11-24
  • Персонализация

  • Поведенческие сигналы

  • Семантика и интент

Как Google проактивно уведомляет пользователей об изменении цен или доступности товаров на основе их предполагаемого намерения покупки
Google анализирует действия пользователя (поисковые запросы, посещения сайтов), чтобы выявить намерение в отношении сущностей (например, продуктов или авиабилетов). Если намерение сильное и происходит значительное изменение (падение цены или изменение доступности), Google проактивно отправляет уведомление со ссылками для завершения действия (например, покупки).
  • US20180357238A1
  • 2018-12-13
  • Семантика и интент

  • Поведенческие сигналы

  • Персонализация

Как Google идентифицирует экспертов на основе их активности и позволяет фильтровать выдачу по их контенту
Google использует систему для идентификации людей (членов социальной сети), тесно связанных с темой запроса, на основе их активности (посты, взаимодействия, репосты) и квалификации. Система отображает этих людей в специальных блоках (Display Areas) рядом с результатами поиска, позволяя пользователям просматривать их профили или фильтровать выдачу, чтобы увидеть только контент, созданный, одобренный или прокомментированный этими экспертами.
  • US9244985B1
  • 2016-01-26
  • EEAT и качество

  • Поведенческие сигналы

  • SERP

seohardcore