SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует аудиовизуальный контекст (то, что пользователь смотрит в данный момент) для уточнения поисковых запросов

METHODS, SYSTEMS, AND MEDIA FOR GENERATING SEARCH RESULTS BASED ON CONTEXTUAL INFORMATION (Методы, системы и средства для генерации результатов поиска на основе контекстной информации)
  • US10002191B2
  • Google LLC
  • 2014-02-26
  • 2018-06-19
  • Мультимедиа
  • Семантика и интент
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует технологию для понимания запросов о медиаконтенте, который воспроизводится в данный момент (например, "Кто этот актер?"). Система идентифицирует программу и точный момент с помощью аудио/видео отпечатков, определяет, какие сущности (актеры, объекты) сейчас на экране, и использует эту информацию как контекст для точного ответа на запрос пользователя.

Описание

Какую проблему решает

Патент решает проблему неоднозначности и сложности поиска информации о медиаконтенте (фильмах, ТВ-программах), который пользователь просматривает в реальном времени. Он устраняет необходимость для пользователя вручную идентифицировать название программы или актеров, чтобы задать точный вопрос. Система автоматизирует определение контекста, позволяя отвечать на запросы типа "Кто этот актер на экране?" путем анализа того, что сейчас воспроизводится.

Что запатентовано

Запатентована система контекстного поиска, которая использует информацию о медиа, воспроизводимом в данный момент, для генерации релевантных результатов. Система идентифицирует просматриваемую программу и точный момент времени в ней, извлекает связанные с этим моментом сущности (называемые Keywords) и использует их для уточнения и ограничения (constraints) запроса пользователя.

Как это работает

Механизм работает следующим образом:

  • Получение запроса: Система получает запрос и определяет, что он относится к медиа, воспроизводимому в данный момент (time-sensitive query).
  • Сбор контекста: Записываются медиаданные (аудио, видео) из окружения пользователя.
  • Идентификация контента: С помощью технологий отпечатков (например, Audio Fingerprinting) система точно определяет программу и текущий временной код (portion of the program).
  • Извлечение сущностей: Система обращается к базе данных предварительно проанализированного контента и извлекает Keywords (сущности), связанные именно с этим временным кодом.
  • Уточнение контекста (NLP): Анализируется интент запроса (Question Term). Если пользователь спрашивает "Кто?", система фильтрует извлеченные сущности, оставляя только тип "Человек".
  • Выполнение поиска: Поиск выполняется с использованием исходного запроса и отобранных контекстуально релевантных сущностей в качестве ограничений.

Актуальность для SEO

Высокая. Патент описывает базовые технологии для функций, активно используемых в современных системах, таких как Google Assistant, Google Lens и сервисах распознавания медиа. Мультимодальный поиск и использование контекста окружающей среды (Ambient Computing) являются ключевыми направлениями развития поиска.

Важность для SEO

Влияние на традиционное веб-SEO является косвенным (5/10). Патент не описывает алгоритмы ранжирования основного веб-индекса. Однако он имеет высокое стратегическое значение для понимания возможностей Google в анализе мультимедийного контента (распознавание лиц, объектов, аудио) и извлечении сущностей. Это критически важно для оптимизации видеоконтента и стратегий, связанных с Knowledge Graph и голосовым поиском.

Детальный разбор

Термины и определения

Annotation Module (Модуль аннотирования)
Компонент системы (работающий офлайн), который анализирует медиаконтент для извлечения Keywords и ассоциации их с конкретными временными отрезками программы. Использует Recognition Module.
Audio Fingerprint / Video Fingerprint (Аудио/Видео отпечаток)
Компактная цифровая сигнатура, полученная из аудио- или видеосигнала. Используется для точной идентификации медиаконтента и конкретного временного кода.
Contextually Relevant Keywords (Контекстуально релевантные ключевые слова)
Ключевые слова (сущности), которые одновременно связаны с текущим моментом воспроизведения медиа И соответствуют интенту запроса пользователя.
Entity Type (Тип сущности)
Категория, к которой принадлежит ключевое слово (например, Человек, Локация, Объект). Используется для фильтрации ключевых слов в соответствии с интентом запроса.
Keywords (Ключевые слова)
В контексте патента — это сущности, связанные с программой: люди, места, события, объекты, бренды и т.д.
Media Data (Медиаданные)
Данные, используемые для идентификации контента. Включают аудио, видео, данные электронного телегида (EPG), отпечатки.
Portion of the program (Часть программы)
Конкретный временной сегмент или момент в медиаконтенте, который пользователь просматривает во время отправки запроса.
Question Term (Вопросительный термин)
Часть запроса, которая указывает на тип искомой информации (например, "Кто", "Где", "Когда").
Recognition Module (Модуль распознавания)
Компонент, использующий технологии распознавания лиц (Facial Recognition), изображений (Image Recognition) и оптического распознавания символов (OCR) для идентификации Keywords в медиапотоке.
Time-sensitive query (Чувствительный ко времени запрос)
Запрос, относящийся к тому, что происходит в медиаконтенте в данный конкретный момент, а не к программе в целом.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной метод генерации результатов поиска с учетом контекста текущего медиа.

  1. Система получает пользовательский ввод и составляет запрос, включающий Question Term.
  2. Система определяет, является ли запрос Time-sensitive query, относящимся к программе, воспроизводимой в данный момент. Определение основано на терминах запроса, контекстной информации и приложении, через которое получен запрос.
  3. Если ДА: Система захватывает Media Data воспроизводимой программы.
  4. Система идентифицирует конкретную Portion of the program (временной сегмент), которая воспроизводилась в момент получения запроса, используя захваченные Media Data.
  5. Система идентифицирует набор Keywords (сущностей), связанных именно с этим временным сегментом.
  6. Система определяет контекстную релевантность: выбирает те ключевые слова, чей Entity Type (например, Человек) соответствует Question Term в запросе (например, "Кто").
  7. Система получает результаты поиска, которые отвечают на запрос и основаны на выбранных контекстно-релевантных ключевых словах.
  8. Система представляет результаты пользователю.

Claim 2, 3, 4 (Зависимые): Детализируют механизм идентификации контента и временного отрезка.

Система использует Audio Fingerprinting. Захваченные аудиоданные сравниваются с базой данных отпечатков. Это позволяет идентифицировать программу (Claim 2) и точный временной отрезок внутри программы (Claim 3), так как отпечатки в базе привязаны к конкретным таймстампам. Контекстуально релевантные ключевые слова определяются как те, что ассоциированы с этим идентифицированным временным отрезком (Claim 4).

Claim 6 (Зависимый): Уточняет механизм определения контекстуальной релевантности.

Определение того, что ключевые слова контекстуально релевантны, включает определение того, что они относятся к типу, отвечающему на часть запроса, с использованием обработки естественного языка (natural language processing).

Где и как применяется

Изобретение требует значительной предварительной обработки данных на этапе индексирования и сложной логики на этапах понимания запроса и поиска.

INDEXING – Индексирование и извлечение признаков (Офлайн-процессы)
Это критически важный этап для работы системы. Здесь происходит подготовка данных:

  • Генерация отпечатков: Создание и сохранение Audio/Video Fingerprints для программ с привязкой к таймстампам.
  • Извлечение сущностей: Анализ контента с помощью Annotation Module и Recognition Module. Применяются технологии Facial Recognition, Image Recognition, OCR для идентификации актеров, объектов, локаций.
  • Аннотирование: Извлеченные сущности (Keywords) сохраняются в Keyword Database с указанием типа сущности и таймстампов, когда они появляются в программе.

QUNDERSTANDING – Понимание Запросов (Онлайн-процессы)
В реальном времени система обрабатывает запрос:

  • Классификация запроса: Определение, является ли запрос time-sensitive и относится ли он к текущему медиа.
  • Анализ интента: Использование NLP для определения Question Term и типа искомой информации.
  • Сбор контекста: Инициирование захвата Media Data (аудио/видео) из окружения пользователя.

RANKING / Specialized Retrieval (Онлайн-процессы)
Это не традиционное веб-ранжирование, а специализированный поиск с использованием контекста:

  • Идентификация контекста: Использование захваченных медиаданных и Fingerprinting для определения программы и таймстампа.
  • Фильтрация: Получение списка сущностей из Keyword Database для данного таймстампа и отбор Contextually Relevant Keywords путем сопоставления типа сущности с интентом запроса.
  • Поиск: Выполнение поиска, где отобранные ключевые слова используются как ограничения для генерации финального ответа.

На что влияет

  • Специфические запросы: Влияет на информационные запросы, связанные с потреблением медиаконтента (фильмы, сериалы, ТВ-шоу). Примеры: "Кто этот актер?", "Где это снято?".
  • Типы контента: Влияет на представление информации о сущностях, связанных с медиа (актеры, локации, бренды).
  • Устройства: Наибольшее влияние на смарт-ТВ, голосовых помощников (Google Assistant) и мобильные устройства, используемые как "второй экран".

Когда применяется

  • Триггеры активации: Алгоритм активируется, когда система определяет, что запрос пользователя является time-sensitive и направлен на медиа, которое воспроизводится в данный момент.
  • Условия срабатывания: Это может определяться наличием специфических фраз в запросе (например, "на ТВ сейчас", "в этом шоу") или контекстом приложения, через которое задан вопрос (например, приложение для распознавания медиа).

Пошаговый алгоритм

Процесс А: Офлайн-подготовка данных (Индексирование)

  1. Получение контента: Система получает доступ к медиаконтенту.
  2. Генерация отпечатков: Создаются Audio/Video Fingerprints для всего контента с привязкой к таймстампам.
  3. Анализ контента: Recognition Module анализирует видеоряд (используя Facial Recognition, Image Recognition, OCR) и аудио/субтитры для идентификации сущностей.
  4. Извлечение и классификация сущностей: Annotation Module извлекает сущности (Keywords), определяет их тип (Человек, Локация и т.д.).
  5. Сохранение данных: Сущности сохраняются в Keyword Database с привязкой к программе, таймстампам и типу сущности.

Процесс Б: Обработка запроса в реальном времени

  1. Получение ввода и композиция запроса: Запрос формируется, определяется Question Term.
  2. Определение типа запроса: Система определяет, является ли запрос time-sensitive и связан ли с текущим медиа.
  3. Захват медиаданных: Если запрос time-sensitive, устройство записывает фрагмент аудио/видео.
  4. Идентификация контента: Система сравнивает захваченные данные (отпечаток) с базой отпечатков и определяет точную программу и таймстамп (Portion of the program).
  5. Извлечение кандидатов: Система запрашивает Keyword Database для получения всех сущностей, соответствующих этому таймстампу.
  6. Определение релевантности (NLP): Система фильтрует полученные сущности, оставляя только те, чей тип соответствует Question Term запроса. Это Contextually Relevant Keywords.
  7. Генерация результатов: Система выполняет поиск, используя запрос и контекстуально релевантные ключевые слова как ограничения.
  8. Представление ответа: Результаты возвращаются пользователю.

Какие данные и как использует

Данные на входе

Патент описывает использование следующих типов данных:

  • Пользовательские факторы: Текст или аудио (голос) запроса пользователя. Данные о приложении, через которое был сделан запрос.
  • Мультимедиа факторы:
    1. Захваченные в реальном времени аудиоданные (Audio Data) и видеоданные (Video Data).
    2. Audio Fingerprints или Video Fingerprints, сгенерированные из захваченных данных.
  • Структурные факторы (Контекст): Данные электронного программного гида (Electronic Program Guide Data) или метаданные программы.

Какие метрики используются и как они считаются

Патент не описывает метрики ранжирования, но описывает методы анализа и идентификации:

  • Методы идентификации контента:
    • Audio/Video Fingerprinting: Сравнение отпечатков с базой данных для идентификации программы и таймстампа.
  • Методы анализа текста (NLP):
    • Используются для определения того, является ли запрос time-sensitive.
    • Используются для определения Question Term и интента запроса.
    • Используются для сопоставления интента запроса с Entity type.
  • Методы извлечения сущностей (Офлайн-анализ):
    • Facial Recognition: Распознавание лиц для идентификации людей.
    • Image Recognition: Распознавание образов для идентификации объектов, локаций, брендов.
    • Optical Character Recognition (OCR): Извлечение текста из видеоряда.

Выводы

  1. Специализированный поиск, а не веб-ранжирование: Патент описывает узкоспециализированный механизм информационного поиска, привязанный к контексту потребления медиа. Он не дает прямых указаний по ранжированию веб-сайтов в основном индексе Google.
  2. Глубокий анализ мультимедиа и привязка ко времени: Патент демонстрирует продвинутые возможности Google по анализу видео и аудио. Система способна извлекать и каталогизировать сущности (людей, объекты) с привязкой к конкретным моментам времени (time-coding). Это ключевой аспект изобретения.
  3. Автоматизация сбора контекста: Ключевая инновация заключается в способности системы автоматически и точно определить контекст (программу и точный таймстамп) с помощью Fingerprinting, избавляя пользователя от ручного ввода.
  4. Интеграция технологий: Успешная работа системы зависит от интеграции NLP (для понимания запроса), технологий распознавания образов (Facial Recognition, OCR) и технологий идентификации контента (Fingerprinting).
  5. Важность структурированных данных и Knowledge Graph: Для предоставления ответов система полагается на предварительно собранные данные о сущностях. Для SEO это подчеркивает важность того, чтобы информация о сущностях (особенно связанных с медиа) была структурирована и доступна для индексации и попадания в Knowledge Graph.

Практика

Best practices (это мы делаем)

Хотя патент не влияет напрямую на веб-ранжирование, он дает важные стратегические инсайты, особенно для медиаиздателей и специалистов по видео-SEO.

  • Фокус на оптимизации под Knowledge Graph (Entity SEO): Необходимо обеспечить, чтобы все ключевые сущности, связанные с медиаконтентом (актеры, режиссеры, локации, продукты), были хорошо представлены в Knowledge Graph. Это повышает вероятность того, что Recognition Module Google корректно их идентифицирует и включит в свою базу данных Keywords.
  • Детальное структурирование видеоконтента: Понимание того, что Google анализирует видео на детальном уровне, должно мотивировать к более тщательному подходу к видео-SEO. Используйте функции, такие как главы (chapters), загружайте точные транскрипты и используйте структурированные данные (например, Clip), чтобы явно связать контент с конкретными временными кодами.
  • Качество контента (для создателей): Использование высококачественного аудио и видео облегчает процесс создания отпечатков (Fingerprinting) и работу систем распознавания (например, распознавание лиц актеров или OCR текста в кадре).

Worst practices (это делать не надо)

  • Игнорирование видео как источника данных: Ошибочно считать, что Google не понимает содержание видеоряда. Патент доказывает, что Google активно использует технологии распознавания образов и лиц для извлечения данных из видео.
  • Пренебрежение структурированными данными для медиа-сущностей: Отсутствие микроразметки (Schema.org для Movie, TVSeries, Person) для медиаконтента снижает вероятность его использования в качестве источника для контекстных ответов и затрудняет связывание сущностей.
  • Низкое качество A/V контента: Видео с плохим освещением или аудио низкого качества может помешать системе идентифицировать контент или сущности внутри него.

Стратегическое значение

Патент подтверждает стратегию Google по развитию амбиентных вычислений (Ambient Computing) и глубокому пониманию контекста пользователя. Он также подчеркивает важность глубокого анализа мультимедийного контента и извлечения сущностей. В долгосрочной перспективе это означает, что любой контент (текст, видео, аудио) рассматривается Google как источник структурированных данных о сущностях, а не просто как медиафайл.

Практические примеры

Сценарий: Оптимизация контента сайта о кино (например, аналога IMDb) для использования в контекстном поиске

Задача: Увеличить вероятность использования информации с сайта в качестве источника ответа на запрос "Кто этот актер на экране?".

  1. Действие: Внедрить максимально полную микроразметку Schema.org на страницах фильмов (Movie) и актеров (Person). Убедиться, что связи между ними (actor, director) четко определены и связаны с внешними идентификаторами (например, через sameAs).
  2. Действие: Обеспечить высокое качество изображений актеров и их корректную разметку, чтобы облегчить работу систем распознавания лиц (Facial Recognition) и ассоциирование изображений с сущностью.
  3. Ожидаемый результат: Информация с сайта более эффективно индексируется и попадает в Knowledge Graph. Когда система контекстного поиска идентифицирует актера, она с большей вероятностью использует данные из авторитетного, хорошо структурированного источника для формирования ответа.

Вопросы и ответы

Влияет ли этот патент на ранжирование моего веб-сайта в Google Поиске?

Напрямую нет. Этот патент описывает специализированную систему поиска, предназначенную для ответа на вопросы о воспроизводимом медиаконтенте (например, на Смарт-ТВ или через Google Assistant). Он не описывает алгоритмы ранжирования веб-страниц в основном индексе Google.

Какое значение этот патент имеет для SEO, если он не о ранжировании?

Он имеет важное стратегическое значение. Патент демонстрирует технические возможности Google по глубокому анализу видео и аудио, извлечению сущностей (людей, объектов, текста) из мультимедиа и пониманию контекста. Это подтверждает важность работы над Entity SEO и оптимизацией видеоконтента.

Что такое Audio Fingerprinting и как он используется здесь?

Audio Fingerprinting (аудио-отпечаток) — это технология создания уникального цифрового идентификатора из аудиосигнала. В этом патенте она используется для того, чтобы по короткому записанному фрагменту звука точно определить, какую программу смотрит пользователь и какой именно момент (таймстамп) сейчас воспроизводится.

Как система узнает, кто именно находится в кадре в данный момент?

Система не делает это в реальном времени. Она полагается на офлайн-анализ, проведенный заранее. Специальный модуль (Annotation Module) предварительно анализирует весь фильм, используя распознавание лиц (Facial Recognition), распознавание образов и OCR, и сохраняет информацию о том, какие сущности (Keywords) появляются в какой момент времени.

Что такое "time-sensitive query" в контексте этого патента?

Это запрос, который относится к тому, что происходит в медиаконтенте прямо сейчас, а не к программе в целом. Например, "Кто этот актер?" (показывая на экран) — это time-sensitive. А "Когда вышел этот фильм?" — нет.

Как система понимает, ищет ли пользователь актера, локацию или объект?

Система использует обработку естественного языка (NLP) для анализа запроса и определения "Вопросительного термина" (Question Term), например, "Кто", "Где" или "Что". Затем она сопоставляет этот термин с типом сущностей (Entity Type), которые присутствуют в кадре в данный момент.

Что подразумевается под "Keywords" (Ключевыми словами) в этом патенте?

В данном патенте Keywords — это не поисковые фразы, а сущности (Entities), связанные с медиаконтентом. Это могут быть имена актеров, названия локаций, бренды, объекты в кадре. Они извлекаются заранее с помощью технологий распознавания или из метаданных.

Что это значит для моего Видео-SEO?

Это подтверждает, что Google обладает инструментами для глубокого понимания содержания видео, включая идентификацию людей и объектов в кадре. Это подчеркивает важность предоставления четких сигналов (метаданные, субтитры, структура видео с таймкодами), помогающих алгоритмам правильно интерпретировать ваш контент.

Могу ли я оптимизировать свой сайт, чтобы он стал источником для таких ответов?

Да, если ваш сайт посвящен медиа-тематике. Предоставление точной, структурированной информации (используя Schema.org) о фильмах, актерах и т.д. повышает ваш авторитет и увеличивает шансы попадания в Knowledge Graph, откуда система, вероятно, берет ответы.

Может ли эта система работать с любым контентом?

Теоретически да, но она зависит от предварительного офлайн-анализа. Система сможет идентифицировать контент и извлечь сущности только в том случае, если этот контент был заранее проиндексирован, для него были созданы Audio Fingerprints и извлечены Keywords с помощью модуля аннотирования.

Похожие патенты

Как Google использует контент, который вы смотрите (например, на ТВ), для автоматического переписывания и персонализации ваших поисковых запросов
Google может анализировать контент (фильмы, шоу, аудио), который пользователь потребляет на одном устройстве (например, ТВ), и использовать эту информацию как контекст для уточнения последующих поисковых запросов. Система распознает аудиовизуальный контекст и автоматически дополняет неоднозначные запросы пользователя, чтобы предоставить более релевантные результаты, в том числе на связанных устройствах (например, смартфоне).
  • US9244977B2
  • 2016-01-26
  • Персонализация

  • Семантика и интент

  • Поведенческие сигналы

Как Google автоматически понимает контекст запросов, заданных во время просмотра видео, используя временные метки и анализ N-грамм
Google использует систему для автоматического уточнения запросов, заданных во время просмотра мультимедиа (например, «Кто это?»). Система определяет сущности (людей, объекты), присутствующие на экране в момент запроса, используя временные метки и анализ истории поисковых запросов (N-грамм). Затем она переписывает запрос, добавляя релевантный контекст, чтобы предоставить точный ответ без прерывания просмотра.
  • US9852188B2
  • 2017-12-26
  • Мультимедиа

  • Семантика и интент

  • SERP

Как Google использует real-time анализ текста, аудио и изображений для автоматической генерации запросов и проактивного поиска
Система Google для анализа информации, захваченной из различных источников (вводимый текст, изображения документов, аудиопотоки) в реальном времени. Система автоматически распознает контент, выделяет ключевые фрагменты, формирует поисковые запросы и мгновенно предоставляет пользователю релевантный цифровой контент или связанные действия без явных запросов. Это механизм, лежащий в основе технологий визуального (Lens) и голосового поиска.
  • US8990235B2
  • 2015-03-24
  • Семантика и интент

  • Персонализация

  • Мультимедиа

Как Google использует анализ видео и аудио для построения графов зависимостей между эпизодами сериализованного контента
Google анализирует медиаконтент (например, эпизоды сериалов или обучающих курсов), чтобы автоматически понять, какие эпизоды связаны между собой. Изучая фрагменты повторов, транскрипты и визуальные элементы (включая распознавание лиц), система строит «Граф Зависимостей». Это позволяет рекомендовать пользователям необходимые для понимания предыдущие эпизоды, улучшая организацию и потребление сериализованного контента.
  • US9558407B1
  • 2017-01-31
  • Мультимедиа

  • Семантика и интент

  • Персонализация

Как Google использует всплески поисковых запросов для идентификации трендовых «моментов» в ТВ-трансляциях и прямых эфирах
Google анализирует всплески поисковых запросов в реальном времени и сопоставляет их с транслируемым медиаконтентом (например, телешоу или спортивными событиями). Сопоставляя термины запроса с метаданными (субтитрами) или анализируя аудио-отпечатки с устройств пользователей, Google определяет точный «момент», вызвавший интерес, и упаковывает его в автоматический «Гид по моментам».
  • US20170214954A1
  • 2017-07-27
  • Поведенческие сигналы

  • Мультимедиа

  • Семантика и интент

Популярные патенты

Как Google Assistant адаптирует выдачу на лету, позволяя пользователям навигировать по результатам и запоминать предпочтения по источникам и темам
Google использует механизм для диалоговых систем (например, Google Assistant), позволяющий пользователям взаимодействовать с поисковой выдачей через естественный язык. Система предоставляет результаты последовательно и адаптирует порядок выдачи в ответ на команды навигации (например, «Вернись к новости о Кафе»). Кроме того, система фиксирует отношение пользователя к атрибутам контента (например, «Не показывай новости из Источника 1») и использует эти данные для фильтрации или изменения ранжирования в текущих и будущих сессиях.
  • US10481861B2
  • 2019-11-19
  • Персонализация

  • Семантика и интент

  • Поведенческие сигналы

Как Google динамически меняет формулы ранжирования, адаптируя веса факторов под контекст запроса и пользователя
Google не использует единую модель ранжирования. Система использует машинное обучение для создания множества специализированных моделей (Predicted Performance Functions), обученных на исторических данных о кликах для разных контекстов (Search Contexts). При получении запроса система определяет контекст (тип запроса, язык, локация пользователя) и применяет ту модель, которая лучше всего предсказывает CTR в этой ситуации, динамически изменяя значимость различных сигналов ранжирования.
  • US8645390B1
  • 2014-02-04
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google использует машинное обучение и данные о длительности сессий для выявления битых Deep Links в мобильных приложениях
Google использует систему машинного обучения для анализа того, как долго пользователи взаимодействуют с контентом в приложении после перехода по Deep Link (Presentation Duration). Анализируя распределение этих временных интервалов, система классифицирует ссылку как рабочую или битую без необходимости прямого сканирования контента. Это позволяет Google удалять неработающие ссылки из индекса.
  • US10628511B2
  • 2020-04-21
  • Ссылки

  • Индексация

  • Поведенческие сигналы

Как Google создает и использует базу «идеальных» ответов (Canonical Content Items) для ответов на вопросы пользователей
Google использует систему для идентификации и создания «канонических элементов контента» — образцовых объяснений тем, часто в формате вопрос-ответ. Система анализирует огромные массивы существующего контента, кластеризует похожие вопросы и ответы и выбирает или синтезирует идеальную версию. Когда пользователь задает вопрос, система сопоставляет его с этой базой данных, чтобы мгновенно предоставить высококачественный, модельный ответ.
  • US9396263B1
  • 2016-07-19
  • Семантика и интент

  • EEAT и качество

Как Google использует поведение пользователей для определения синонимичности фраз в запросах, связанных с сущностями
Google анализирует поведение пользователей (клики по результатам поиска), чтобы определить, означают ли разные фразы одно и то же, когда они связаны с одним типом сущности (например, «достопримечательности в <Город>» против «места для посещения в <Город>»). Если пользователи кликают на одни и те же документы для разных фраз, система считает эти фразы эквивалентными, что помогает Google понимать синонимы и улучшать результаты поиска.
  • US10073882B1
  • 2018-09-11
  • Семантика и интент

  • Поведенческие сигналы

Как Google консолидирует сигналы ранжирования между мобильными и десктопными версиями страниц, используя десктопный авторитет для мобильного поиска
Патент Google описывает механизм для решения проблемы недостатка сигналов ранжирования в мобильном вебе. Система идентифицирует корреляцию между мобильной страницей и её десктопным аналогом. Если мобильная версия недостаточно популярна сама по себе, она наследует сигналы ранжирования (например, обратные ссылки и PageRank) от авторитетной десктопной версии, улучшая её позиции в мобильном поиске.
  • US8996514B1
  • 2015-03-31
  • Техническое SEO

  • Ссылки

Как Google планировал использовать социальные связи, сети доверия и экспертизу для персонализации и переранжирования поисковой выдачи
Google запатентовал метод использования данных из социальных сетей («member networks») для влияния на ранжирование. Пользователи могли явно одобрять («endorse») результаты поиска. Эти одобрения показывались другим связанным пользователям (друзьям или людям, ищущим экспертное мнение) и использовались для переранжирования выдачи, добавляя персонализированный слой доверия.
  • US8825639B2
  • 2014-09-02
  • Персонализация

  • EEAT и качество

  • Поведенческие сигналы

Как Google использует генеративный ИИ для создания чата с конкретным сайтом прямо в поисковой выдаче и предоставления глубинных ссылок
Google патентует механизм, позволяющий пользователям взаимодействовать с конкретным результатом поиска через интерфейс чата (prompt input interface) прямо на странице выдачи. Искусственный интеллект анализирует запрос пользователя и его последующий промпт, определяет намерение (поиск информации, действие или навигация) и предоставляет глубинные ссылки (deep links) на конкретные внутренние страницы этого же домена в виде conversational response.
  • US12353458B2
  • 2025-07-08
  • Ссылки

  • Семантика и интент

  • SERP

Как Google вычисляет тематический авторитет автора (Author Rank) на основе его вклада в контент
Google патентует систему для количественной оценки экспертности авторов по конкретным темам. Система анализирует документы, определяет их тематику (Topic) и вес этой тематики (Weight), а затем учитывает долю вклада (Authorship Percentage) каждого автора в раскрытие этой темы. На основе этих данных формируется кумулятивный «Сигнал Авторитета» (Authority Signature) автора, позволяющий идентифицировать экспертов в различных областях.
  • US8458196B1
  • 2013-06-04
  • EEAT и качество

  • Семантика и интент

Как Google группирует похожие запросы и поисковые подсказки, определяя интент пользователя через анализ сессий и кликов
Google использует графовую модель (Марковскую цепь) для кластеризации поисковых подсказок и связанных запросов. Система анализирует, какие запросы пользователи вводят в одной сессии и на какие документы они кликают. Это позволяет сгруппировать запросы, ведущие к схожему контенту, и предложить пользователю разнообразный набор подсказок, отражающих разные интенты.
  • US8423538B1
  • 2013-04-16
  • Семантика и интент

  • Поведенческие сигналы

  • SERP

seohardcore