Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Google

    Как Google автоматически генерирует персонализированные «псевдо-биографии» для экспертов в результатах поиска

    GENERATING SNIPPETS FOR PROMINENT USERS FOR INFORMATION RETRIEVAL QUERIES (Генерация сниппетов для авторитетных пользователей по поисковым запросам)
    • US9087130B2
    • Google LLC
    • 2015-07-21
    • 2012-10-04
    2012 EEAT и качество Kumar Mayur Thakur SERP Патенты Google Персонализация

    Google использует систему для идентификации экспертов (Authoritative Users) и автоматического создания сниппетов, объясняющих их релевантность конкретному запросу. Эти сниппеты, или «псевдо-биографии», генерируются офлайн путем анализа профилей и публикаций экспертов в компьютерных сервисах (например, социальных сетях) и отображаются в поисковой выдаче для подтверждения их экспертизы.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает задачу предоставления контекстной информации о том, почему конкретный пользователь, определенный как «авторитетный» (Authoritative User или эксперт), отображается в результатах поиска по определенному запросу. Цель — улучшить пользовательский опыт, позволяя быстро оценить релевантность и экспертизу этого человека непосредственно в контексте поискового запроса, а также стимулировать взаимодействие с компьютерными сервисами (например, социальными сетями).

    Что запатентовано

    Запатентована система и метод автоматической офлайн-генерации текстовых сниппетов, называемых «псевдо-биографиями» (pseudo-biography). Эти сниппеты генерируются для конкретных пар «Авторитетный пользователь» (AU) и «Триггерный запрос» (TQ). Система извлекает информацию из профилей и активности пользователей (User Data), выбирает наиболее релевантные фрагменты текста и компилирует их в сниппет, оптимизируя его длину и информативность, избегая при этом дублирования контента.

    Как это работает

    Система работает преимущественно в офлайн-режиме:

    • Идентификация: Определяются триггерные запросы (TQ) и связанные с ними авторитетные пользователи (AU).
    • Извлечение данных: Данные из профиля (Profile Data) и активность пользователя, например, посты (Item Data), обрабатываются, очищаются и сохраняются как «текстовые фрагменты» (Text Pieces).
    • Поэтапная генерация: Для каждой пары (AU, TQ) система итеративно ищет релевантные Text Pieces. Приоритет отдается данным профиля перед постами, а точному совпадению запроса — перед синонимами.
    • Сборка и уточнение: Найденные фрагменты (Snippet Pieces) объединяются. Система проверяет длину сниппета («достаточность» Sufficiency) и сходство между фрагментами (Similarity Coefficient), чтобы избежать повторов.
    • Snippet Smearing: Если сниппет все еще недостаточен, система может позаимствовать сниппет, созданный для этого же AU, но по синонимичному TQ.
    • Отображение: Когда пользователь вводит TQ, система отображает предварительно сгенерированный сниппет.

    Актуальность для SEO

    Высокая. Хотя конкретная реализация, возможно, была связана с Google+ (учитывая дату подачи), лежащие в ее основе концепции крайне актуальны. Идентификация авторитетных сущностей (людей), понимание их экспертизы из различных источников и визуализация этой экспертизы в SERP (например, в Панелях знаний, блоках Perspectives) являются ключевыми компонентами E-E-A-T и современного поиска.

    Важность для SEO

    Патент имеет важное значение для понимания того, как Google интерпретирует и отображает сигналы экспертизы (E-E-A-T). Он напрямую влияет на стратегии Entity SEO и продвижения авторов. Контроль над исходными данными — тем, как заполнены публичные профили и какая активность ведется автором, — становится критически важным, поскольку именно эти данные используются для генерации сниппетов, представляющих эксперта в поиске.

    Детальный разбор

    Термины и определения

    Authoritative User (AU) (Авторитетный пользователь)
    Пользователь одного или нескольких компьютерных сервисов (например, социальной сети), который был определен как авторитет или эксперт по одной или нескольким темам.
    Trigger Query (TQ) (Триггерный запрос)
    Заранее определенный запрос, который при получении поисковой системой инициирует отображение одного или нескольких связанных с ним AU.
    Snippet (Сниппет)
    Группа текста, отображаемая вместе с AU в результатах поиска. Специфичен как для пользователя, так и для запроса.
    Pseudo-biography (Псевдо-биография)
    Термин, используемый в патенте для описания сниппета. Представляет собой биографию AU в контексте конкретного запроса, часто состоящую из фрагментов предложений, соединенных многоточием.
    User Data (Пользовательские данные)
    Исходные данные для генерации сниппетов. Включают Profile Data и Item Data.
    Profile Data (Данные профиля)
    Информация, предоставленная пользователем в своем профиле (например, профессия, образование, биография, хобби).
    Item Data (Данные активности/публикаций)
    Цифровой контент, распространяемый пользователем в сервисе (например, посты, комментарии).
    Text Piece (Текстовый фрагмент)
    Строка текста, полученная путем обработки и очистки User Data. Исходный материал для поиска релевантных частей сниппета.
    Snippet Piece (Фрагмент сниппета)
    Text Piece (или его часть), который определен как релевантный конкретному TQ (например, содержит запрос или его синоним) и используется для сборки финального сниппета.
    Sufficiency (Достаточность)
    Критерий оценки качества сниппета, обычно основанный на количестве символов. Если сниппет слишком короткий, он считается «недостаточным» (insufficient).
    Similarity Coefficient (Коэффициент сходства)
    Метрика (например, Edit Distance), используемая для сравнения уже собранного сниппета с новым Snippet Piece. Используется для предотвращения дублирования контента в сниппете.
    Snippet Smearing («Размазывание» сниппета)
    Процесс, при котором, если для пары (AU, TQ1) не удается сгенерировать достаточный сниппет, система использует сниппет, сгенерированный для того же AU, но по другому, синонимичному запросу (AU, TQ2).

    Ключевые утверждения (Анализ Claims)

    Claim 1 (Независимый пункт): Описывает основной процесс генерации и модификации сниппетов.

    1. Система получает данные о триггерных запросах (TQ) и связанных с ними авторитетных пользователях (AU).
    2. Генерируются пары (TQ, AU).
    3. Для как минимум одной пары:
      1. Генерируется сниппет на основе данных пользователя (User Data).
      2. Определяется, что этот сниппет является «недостаточным» (insufficient).
      3. В ответ на это сниппет модифицируется для создания «пересмотренного сниппета» (revised snippet).
    4. Сниппеты (включая пересмотренный) сохраняются в памяти.

    Ядром изобретения является не просто генерация сниппета, а процесс его итеративного улучшения (модификации), если исходный результат признан неудовлетворительным (недостаточным).

    Claim 2 (Зависимый): Детализирует процесс генерации сниппета.

    Генерация включает извлечение Text Pieces, идентификацию релевантных Snippet Pieces на основе TQ и их объединение (appending) для создания сниппета.

    Claims 3, 4, 5 (Зависимые): Детализируют процесс модификации (улучшения) сниппета.

    Модификация включает выбор нового Snippet Piece и принятие решения о его добавлении. Это решение (Claim 4) основывается на Similarity Score (оценке сходства) между текущим сниппетом и новым фрагментом для избежания дублирования. Добавление может включать (Claim 5) удаление ранее добавленного фрагмента и добавление нового.

    Claim 7 (Зависимый от 1): Описывает альтернативный метод модификации (Snippet Smearing).

    Если сниппет недостаточен, система идентифицирует другой сниппет, связанный с этим же AU (но с другим TQ), и использует его в качестве пересмотренного сниппета.

    Где и как применяется

    Изобретение в основном описывает офлайн-процессы, которые подготавливают данные для использования на финальных этапах формирования выдачи.

    INDEXING – Индексирование и извлечение признаков
    На этом этапе происходит сбор, анализ и индексация User Data (Profile Data и Item Data) из компьютерных сервисов (например, социальных сетей). Данные очищаются и преобразуются в Text Pieces. Также в ходе связанных офлайн-процессов происходит идентификация Authoritative Users и их привязка к Trigger Queries.

    Основной процесс (Офлайн-вычисления)
    Большая часть описанного в патенте алгоритма (генерация, оценка достаточности, модификация, Snippet Smearing) выполняется офлайн, до получения запроса пользователем. Результатом является база данных готовых сниппетов для каждой пары (AU, TQ).

    METASEARCH – Метапоиск и Смешивание
    Во время обработки запроса пользователя, если запрос совпадает с TQ, система активирует соответствующий вертикальный блок или элемент SERP. Система извлекает список релевантных AU и их предварительно сгенерированные, специфичные для данного запроса сниппеты для отображения.

    Входные данные:

    • Списки Trigger Queries и ассоциированных Authoritative Users.
    • Profile Data для каждого AU (структурированные данные профиля).
    • Item Data для каждого AU (посты, комментарии).
    • Базы данных синонимов и вариантов запросов.

    Выходные данные:

    • База данных сниппетов, где каждый сниппет ассоциирован с конкретной парой (AU, TQ).

    На что влияет

    • Конкретные типы контента: В первую очередь влияет на отображение профилей пользователей, авторов и экспертов (сущностей типа Person) в результатах поиска.
    • Специфические запросы: Применяется для информационных запросов (TQs), где важна экспертиза и где пользователи могут искать авторитетные мнения.
    • Конкретные ниши или тематики: YMYL-тематики, технологии, хобби, наука — любые ниши, где существуют идентифицируемые эксперты (AU).

    Когда применяется

    • Условия генерации (офлайн): Когда пользователь идентифицирован как AU для определенного TQ, система пытается сгенерировать для него сниппет.
    • Условия модификации (офлайн): Активируются, если сгенерированный сниппет не соответствует критериям «достаточности» (Sufficiency), например, слишком короткий, или если новые фрагменты слишком похожи на уже имеющиеся (высокий Similarity Coefficient).
    • Триггер активации (в поиске): Когда пользователь вводит запрос, который система сопоставляет с сохраненным Trigger Query.

    Пошаговый алгоритм

    Алгоритм состоит из офлайн-процессов подготовки данных и генерации сниппетов.

    Процесс А: Подготовка данных (Офлайн)

    1. Сбор данных AU: Для каждого идентифицированного AU система получает Profile Data и Item Data из соответствующих сервисов.
    2. Обработка Profile Data: Данные из различных разделов профиля (Профессия, Образование, Биография и т.д.) извлекаются. Разделам присваивается ранг важности (например, Профессия важнее Хобби).
    3. Обработка Item Data: Извлекается контент из постов и комментариев пользователя.
    4. Очистка и генерация Text Pieces: Все собранные данные очищаются (удаление пунктуации, стоп-слов, ссылок). Генерируются чистые текстовые фрагменты (Text Pieces).
    5. Сохранение: Text Pieces сохраняются с привязкой к AU и источнику.

    Процесс Б: Генерация сниппетов (Офлайн)

    1. Итерация по TQ и AU: Система обрабатывает все пары (AU, TQ).
    2. Получение синонимов: Для текущего TQ система получает список синонимов и вариантов.
    3. Генерация сниппета (Процесс В): Запускается детальный процесс генерации сниппета для пары (AU, TQ).
    4. Проверка и сохранение: Если сгенерированный сниппет не пустой, он сохраняется в базе данных.

    Процесс В: Детальная генерация сниппета (Итеративная сборка)

    Цель — собрать сниппет, превышающий порог достаточности (длины), используя приоритетные источники и избегая дублирования.

    1. Фаза 1: Profile Data + Точный TQ.
      1. Идентификация Snippet Pieces из Profile Data, содержащих точное вхождение TQ.
      2. Сборка сниппета: Фрагменты объединяются, начиная с разделов профиля с наивысшим рангом. На каждом шаге проверяется Similarity Coefficient.
      3. Проверка достаточности. Если достаточно, процесс завершается.
    2. Фаза 2: Item Data + Точный TQ. (Если недостаточно)
      1. Идентификация Snippet Pieces из Item Data, содержащих точный TQ.
      2. Сниппет дополняется этими фрагментами (с проверкой схожести).
      3. Проверка достаточности. Если достаточно, процесс завершается.
    3. Фаза 3: Profile/Item Data + Синонимы TQ. (Если недостаточно)
      1. Идентификация Snippet Pieces из всех данных, содержащих синонимы или варианты TQ.
      2. Сниппет дополняется (с проверкой схожести).
      3. Проверка достаточности. Если достаточно, процесс завершается.
    4. Фаза 4: Profile/Item Data (Общие). (Если недостаточно)
      1. Сниппет дополняется оставшимися Snippet Pieces (даже если они не содержат TQ или синонимы), чтобы набрать длину.
      2. Проверка достаточности. Если достаточно, процесс завершается.
    5. Фаза 5: Snippet Smearing. (Если недостаточно)
      1. Система ищет другие сниппеты, сгенерированные для этого же AU по синонимичным TQ.
      2. Если такой сниппет найден, он копируется для текущего TQ.

    Какие данные и как использует

    Данные на входе

    • Контентные и Структурные факторы (Profile Data): Текст из структурированных разделов профиля пользователя. В патенте упоминаются: Occupation (Профессия), Employment (Занятость), Work Experience (Опыт работы), Education (Образование), Places Lived (Места проживания), Hobbies (Хобби), Personal Biography (Личная биография).
    • Контентные факторы (Item Data): Текст из цифрового контента, созданного пользователем: посты, комментарии.
    • Системные данные: Заранее определенные списки Trigger Queries и ассоциированных Authoritative Users. Базы данных синонимов.

    Какие метрики используются и как они считаются

    • Ранг разделов профиля (Order of Importance): Предварительно определенный порядок приоритета для источников Profile Data. Используется для выбора первых фрагментов сниппета. Пример порядка из патента (от высшего к низшему): Occupation, Education, Work Experience, Personal Biography, Hobbies, Employment, Places Lived.
    • Sufficiency (Достаточность): Метрика, основанная на количестве символов в сгенерированном сниппете. Сравнивается с пороговым значением. Если длина ниже порога, активируются следующие фазы генерации или модификации.
    • Similarity Coefficient (Коэффициент сходства): Метрика, рассчитываемая между текущим сниппетом и новым Snippet Piece. В патенте упоминается Edit Distance (редакционное расстояние) как пример реализации. Используется для предотвращения дублирования контента в сниппете.

    Выводы

    1. Автоматизация контекстных биографий: Google располагает механизмом для полностью автоматического создания «псевдо-биографий» экспертов, адаптированных под конкретный поисковый запрос. Это позволяет алгоритмически визуализировать E-E-A-T в SERP.
    2. Четкая приоритизация источников данных: Система имеет строгую иерархию предпочтений. Структурированные данные профиля (Profile Data) предпочтительнее активности (Item Data). Точное совпадение запроса имеет приоритет над синонимами.
    3. Важность разделов профиля: Внутри Profile Data приоритет отдается разделам, явно указывающим на экспертизу (Профессия, Образование, Опыт работы).
    4. Оптимизация качества отображения: Система активно работает над улучшением качества сниппетов, используя механизмы для обеспечения достаточной длины (Sufficiency) и предотвращения дублирования контента (Similarity Coefficient).
    5. Snippet Smearing как механизм обеспечения полноты: Возможность использовать сниппеты, созданные для синонимичных запросов, гарантирует, что авторитетный пользователь будет представлен информативно, даже если в его данных нет прямого упоминания конкретной формулировки запроса.
    6. Зависимость от офлайн-вычислений: Генерация сниппетов происходит заранее, что позволяет быстро отображать их в результатах поиска, но может приводить к задержкам в обновлении информации.

    Практика

    Best practices (это мы делаем)

    Рекомендации направлены на улучшение сигналов E-E-A-T и оптимизацию представления авторов (Entity SEO).

    • Комплексная оптимизация профилей экспертов: Необходимо тщательно и стратегически заполнять все доступные профили авторов (страницы «Об авторе» на сайте, профили в релевантных социальных и профессиональных сетях). Эти данные являются основным источником (Profile Data) для генерации сниппетов.
    • Фокус на приоритетных разделах профиля: Поскольку система приоритизирует разделы «Occupation» (Профессия) и «Education» (Образование), крайне важно, чтобы эти разделы четко и с использованием релевантных ключевых терминов (потенциальных TQ) описывали основную экспертизу автора.
    • Создание четких биографических описаний: Биографии (Personal Biography) должны содержать четкие утверждения об опыте и достижениях. Система извлекает Snippet Pieces, поэтому важна информативность отдельных фрагментов.
    • Подтверждение экспертизы через активность (Item Data): Авторы должны регулярно публиковать контент (статьи, посты), соответствующий их экспертизе. Эта активность служит резервным источником данных для сниппетов, если данных профиля недостаточно.
    • Использование синонимов и семантическая связность: При описании экспертизы полезно использовать различные формулировки и синонимы. Это помогает на поздних фазах генерации и повышает эффективность механизма Snippet Smearing между связанными темами.

    Worst practices (это делать не надо)

    • Пустые или неинформативные профили авторов: Игнорирование биографических данных приведет к генерации коротких и некачественных сниппетов или полному отсутствию данных для подтверждения экспертизы.
    • Дублирование информации в разных разделах: Поскольку система использует Similarity Coefficient для борьбы с повторами, многократное повторение одной и той же информации разными словами не поможет сделать сниппет длиннее.
    • Размытые или слишком креативные описания должностей: Использование нестандартных названий профессий или жаргона вместо четкого описания роли может помешать системе идентифицировать релевантные Snippet Pieces.

    Стратегическое значение

    Патент подтверждает стратегическую важность управления цифровой идентичностью авторов и экспертов как части E-E-A-T. Система стремится найти и показать пользователю доказательства экспертизы прямо в SERP, и данный патент описывает, как эти доказательства автоматически извлекаются и форматируются. Экспертиза должна быть не только продемонстрирована в контенте, но и четко сформулирована в источниках, которые Google использует для валидации автора.

    Практические примеры

    Сценарий: Оптимизация профиля эксперта по Data Science для запросов [Data Science] и [Machine Learning]

    1. Анализ (Цель): Эксперт должен быть идентифицирован как AU для TQ «Data Science» и «Machine Learning».
    2. Оптимизация Profile Data (Приоритет 1):
      1. Occupation: Обновить на «Lead Data Scientist, specialized in Machine Learning models».
      2. Education: Указать «M.S. in Data Science».
      3. Biography: Добавить: «10+ years in Data Science. Speaker at international Machine Learning conferences.»
    3. Оптимизация Item Data (Приоритет 2):
      1. Регулярно публиковать посты и статьи, используя термины «Data Science», «Machine Learning», а также синонимы («AI», «ML»).
    4. Ожидаемый результат (Сниппет для TQ=»Data Science»): Система использует данные Фазы 1 и генерирует сниппет: «Lead Data Scientist… M.S. in Data Science… 10+ years in Data Science. Speaker at international…»
    5. Эффект Snippet Smearing: Если по какой-то причине сниппет для «Data Science» окажется недостаточным, но для «Machine Learning» будет сгенерирован качественный сниппет, система может использовать сниппет от «Machine Learning» для запроса «Data Science», так как эти темы тесно связаны.

    Вопросы и ответы

    Какие источники данных важнее для генерации сниппета эксперта: информация в профиле или его публикации?

    Информация в профиле (Profile Data) имеет приоритет. Алгоритм сначала пытается сгенерировать сниппет из структурированных данных профиля (биография, работа, образование). Публикации или посты (Item Data) используются только в том случае, если данных профиля недостаточно для создания сниппета достаточной длины.

    Имеет ли значение, в каком именно разделе профиля указана экспертиза?

    Да, имеет большое значение. Патент описывает ранжирование разделов профиля по важности. Информация из приоритетных разделов (в примере это Профессия, Образование, Опыт работы) будет предпочтительнее информации из менее важных разделов (например, Хобби или Места проживания).

    Нужно ли использовать точные ключевые слова в профиле, или достаточно синонимов?

    Предпочтительнее использовать точные ключевые слова (потенциальные Trigger Queries). Алгоритм в первую очередь ищет точное совпадение запроса в данных профиля (Фаза 1). Синонимы и варианты используются только на более поздних этапах (Фаза 3), если точных совпадений недостаточно.

    Что такое «псевдо-биография» в контексте этого патента?

    Это автоматически сгенерированное описание авторитетного пользователя, релевантное конкретному запросу. Оно называется «псевдо», потому что обычно состоит из склеенных фрагментов предложений (Snippet Pieces), извлеченных из разных источников (профиля, постов) и соединенных многоточием, а не является связным биографическим текстом.

    Как система борется с повторением информации в сниппетах?

    Система использует коэффициент схожести (Similarity Coefficient), например, редакционное расстояние, при добавлении каждого нового фрагмента. Если новый фрагмент слишком похож на уже добавленный контент, система может решить не добавлять его, чтобы избежать избыточности и дублирования.

    Что такое Snippet Smearing и как это влияет на SEO?

    Snippet Smearing — это механизм, при котором система копирует сниппет, созданный для одного запроса, и использует его для другого синонимичного запроса, если для второго не удалось создать качественный сниппет. Это выгодно для SEO, так как позволяет эксперту быть видимым по широкому спектру синонимичных запросов, даже если его профиль оптимизирован только под часть из них.

    Как быстро обновляются эти сниппеты после изменения профиля?

    Патент указывает, что весь процесс генерации сниппетов происходит офлайн. Это означает, что обновление произойдет только после того, как система повторно соберет данные пользователя (User Data) и выполнит процесс перегенерации сниппетов. Мгновенного обновления не происходит.

    Актуален ли этот патент после закрытия Google+?

    Хотя конкретная реализация, вероятно, предназначалась для Google+, описанные механизмы анализа авторского контента являются фундаментальными. Эти методы могут применяться к данным из любых публичных источников (Twitter, LinkedIn, авторские страницы на сайтах) для генерации описаний в Knowledge Panels и других SERP features, связанных с E-E-A-T.

    Как Google определяет, кто является «Авторитетным пользователем» (AU)?

    Этот патент не описывает процесс идентификации AUs. Он принимает список авторитетных пользователей и их связь с темами (TQs) как входные данные. Патент фокусируется исключительно на процессе генерации сниппетов, когда пары (AU, TQ) уже определены.

    Может ли система сгенерировать сниппет, который не содержит ключевых слов из запроса?

    Да, это возможно, хотя и не предпочтительно. Если система не находит достаточно фрагментов с точным совпадением запроса или его синонимов (Фазы 1-3), она может перейти к Фазе 4 и использовать общие текстовые фрагменты из Profile Data или Item Data, которые не содержат терминов запроса, чтобы достичь нужной длины сниппета.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.