SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует камеру и микрофон для понимания неоднозначных голосовых запросов (типа "что это?")

USING SENSOR INPUTS FROM A COMPUTING DEVICE TO DETERMINE SEARCH QUERY (Использование сенсорных входов вычислительного устройства для определения поискового запроса)
  • US20150088923A1
  • Google LLC
  • 2013-09-23
  • 2015-03-26
  • Мультимедиа
  • Семантика и интент
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует механизм мультимодального поиска, объединяющий данные с камеры и микрофона устройства. Если пользователь задает неоднозначный голосовой запрос (например, "Сколько это стоит?"), система распознает объект в поле зрения камеры и использует его название для уточнения запроса (например, "Сколько стоит [Распознанный Объект]?"), обеспечивая точный ответ.

Описание

Какую проблему решает

Патент решает проблему неоднозначности (ambiguity) в естественных поисковых запросах, особенно на мобильных и носимых устройствах. Пользователи часто используют местоимения ("это", "тот", "здесь"), ссылаясь на объекты в своем физическом окружении. Стандартный текстовый или голосовой поиск не может разрешить эти ссылки без дополнительного контекста. Это изобретение обеспечивает этот контекст, используя визуальные данные.

Что запатентовано

Запатентована система для разрешения неоднозначностей в поисковом вводе (например, голосовом) путем использования контекстной информации, полученной от другого сенсора (например, камеры). Система идентифицирует объект, на который смотрит пользователь, определяет его метку (Label) и использует эту метку для уточнения запроса, заменяя местоимение конкретной сущностью.

Как это работает

Система работает как мультимодальный обработчик запросов:

  • Получение данных: Система получает данные от нескольких сенсоров одновременно или последовательно (например, изображение с камеры и аудио с микрофона).
  • Параллельный анализ: Аудио обрабатывается для распознавания речи (Speech Recognition), а изображение анализируется для обнаружения и распознавания объектов (Image Analysis).
  • Обнаружение неоднозначности: Компонент NLP Logic анализирует распознанный текст на наличие местоимений или других неоднозначных терминов.
  • Визуальная идентификация: Система идентифицирует Object of Interest в изображении и определяет его Label (например, название продукта, имя человека, название достопримечательности).
  • Уточнение запроса: Query Processor заменяет обнаруженную неоднозначность (например, "это") на полученную метку (например, "Эйфелева башня").
  • Выполнение поиска: Уточненный, специфичный для сущности запрос отправляется в поисковую систему.

Актуальность для SEO

Крайне высокая. Мультимодальный поиск является стратегическим направлением Google (Google Lens, Circle to Search). В 2025 году, с развитием моделей Vision-Language Models (VLM), таких как Gemini, способность объединять визуальный контекст и языковое понимание является основой современного поиска. Этот патент описывает фундаментальные механизмы для этих технологий.

Важность для SEO

Влияние на SEO умеренное, но стратегически важное. Это технология Понимания Запросов (Query Understanding), а не алгоритм ранжирования. Она не меняет принципы ранжирования по конкретному запросу, но меняет сам запрос, который поступает в систему ранжирования. Это подчеркивает критическую важность оптимизации изображений и сущностей (продуктов, логотипов, мест) для визуального распознавания, поскольку именно распознанная сущность становится ключевым словом в уточненном запросе.

Детальный разбор

Термины и определения

Ambiguity (Неоднозначность)
Элемент в поисковом вводе, который не имеет конкретного значения без дополнительного контекста. В патенте чаще всего подразумеваются местоимения (pronouns), такие как "it," "he," "she," "them," "that," "this," или "here".
Feature Vector (Вектор признаков)
Количественное представление объекта, обнаруженного в изображении. Используется для характеристики формы, цвета, текстуры и паттернов объекта. Применяется для поиска визуально похожих объектов в индексе.
Image Analysis (Анализ изображения)
Процесс обработки входящего изображения для обнаружения объектов, их классификации и/или идентификации.
Label (Метка)
Текстовое описание или идентификатор, присвоенный Object of Interest. Используется для замены неоднозначности в запросе (например, название картины, модель продукта).
NLP Logic (Логика обработки естественного языка)
Компонент, использующий правила и логику для анализа текстовой строки (например, распознанной речи), построения структуры запроса и идентификации неоднозначностей (Ambiguity).
Object of Interest (Объект интереса)
Конкретный объект в сцене, запечатленной камерой, на который ссылается пользователь в своем запросе.
Query Processor (Обработчик запросов)
Компонент, который формулирует окончательный поисковый запрос, используя данные от различных сенсоров. Он выполняет замену местоимений метками.
Recognition Information (Информация о распознавании)
Данные, сгенерированные в результате анализа изображения. Могут включать классификацию объекта, его идентификацию или Feature Vector.
Sensor Inputs (Сенсорные входы)
Необработанные данные, полученные от датчиков устройства (камера, микрофон, GPS, акселерометр и т.д.).

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной метод мультимодального разрешения неоднозначности.

  1. Система получает входное изображение (image input) сцены с камеры устройства.
  2. Определяется объект интереса (object of interest) в этой сцене.
  3. Определяется метка (label) для этого объекта.
  4. Система получает поисковый ввод (search input) от другого механизма (не камеры, например, микрофона).
  5. В поисковом вводе идентифицируется неоднозначность (ambiguity).
  6. Формируется поисковый запрос, который дополняет или заменяет неоднозначность на основе полученной метки.
  7. Предоставляется результат поиска на основе этого запроса.

Claim 4 (Зависимый от 3): Детализирует метод определения метки через визуальное сходство.

  1. Для объекта интереса определяется вектор признаков (feature vector).
  2. Вектор признаков используется для идентификации набора похожих объектов (в индексе).
  3. Метка для объекта интереса определяется на основе этого набора похожих объектов.

Это ключевой механизм, лежащий в основе систем типа Google Lens: объект идентифицируется не только по классификации, но и по сравнению его визуальной сигнатуры с индексом известных изображений.

Claim 7 (Зависимый от 6): Уточняет тип ввода и неоднозначности.

  1. Поисковый ввод является голосовым вводом (voice input), соответствующим произнесенному вопросу или фразе.
  2. Идентификация неоднозначности заключается в идентификации местоимения (pronoun) в этой фразе.

Claim 8 (Зависимый от 1): Описывает механизм выбора при наличии нескольких объектов в сцене.

  1. Анализ изображения определяет несколько объектов.
  2. Система получает ввод от контекстного механизма, отличного от основной камеры (например, данные о направлении взгляда, GPS или другие сенсоры).
  3. Объект интереса выбирается из нескольких объектов на основе этого дополнительного контекстного ввода.

Где и как применяется

Изобретение функционирует на стыке обработки сырых данных и формирования поискового намерения.

INDEXING – Индексирование и извлечение признаков
Для работы системы необходимо, чтобы Google предварительно проиндексировал огромное количество изображений (в патенте упоминается Index 172). На этом этапе вычисляются и сохраняются Feature Vectors и связанные с ними Labels для продуктов, произведений искусства, достопримечательностей, логотипов и т.д. Это позволяет системе быстро распознавать объекты в реальном времени.

QUNDERSTANDING – Понимание Запросов (Основное применение)
Это основная область применения патента. Процесс происходит в реальном времени при получении мультимодального запроса.

  1. Sensor Analysis: Необработанные данные (аудио, видео/изображения) обрабатываются для извлечения текста и информации о распознавании.
  2. Query Processing: Query Processor использует NLP Logic для обнаружения неоднозначности в тексте и одновременно использует Recognition Information для определения визуальной метки (Label).
  3. Query Rewriting: Происходит ключевая трансформация: неоднозначный запрос (например, "Цена этого") превращается в конкретный, основанный на сущности запрос (например, "Цена [Label]").

RANKING – Ранжирование
Система ранжирования получает на вход уже уточненный, недвусмысленный запрос и обрабатывает его стандартным образом, используя соответствующие индексы (текстовый Index 162 или индекс объектов/изображений Index 172).

Входные данные:

  • Изображение или видеопоток сцены (Image Input).
  • Аудиосигнал голосового запроса (Audio Input).
  • Дополнительные сенсорные данные для контекста (GPS, данные о направлении взгляда с фронтальной камеры).

Выходные данные:

  • Уточненный поисковый запрос (Search Query), в котором местоимения заменены конкретными сущностями (Labels).

На что влияет

  • Конкретные типы контента и ниши: Наибольшее влияние оказывается на E-commerce (распознавание продуктов), Локальный поиск (распознавание достопримечательностей, витрин магазинов), Искусство и Образование (распознавание картин, книг).
  • Специфические запросы: Влияет на информационные и коммерческие запросы, заданные в естественной форме с использованием местоимений ("Что это?", "Где купить такое?", "Как туда добраться?").

Когда применяется

  • Триггеры активации: Активируется, когда система получает ввод от нескольких сенсоров (камера + микрофон/клавиатура) в течение короткого промежутка времени и обнаруживает неоднозначность (Ambiguity) в текстовой/голосовой части ввода.
  • Условия работы: Требуется наличие распознаваемого объекта в поле зрения камеры, который может быть сопоставлен с данными в индексе изображений Google.

Пошаговый алгоритм

Процесс обработки мультимодального запроса:

  1. Сбор данных: Получение входных данных от сенсоров вычислительного устройства (камера и микрофон).
  2. Параллельная обработка вводов:
    • Обработка аудио: Распознавание голосового ввода в текст.
    • Обработка изображения: Анализ изображения для определения критериев поиска. Это включает обнаружение объектов (Object Detection) и генерацию информации о распознавании (Recognition Information), например, Feature Vector.
  3. Определение Объекта Интереса: Если обнаружено несколько объектов, система может использовать дополнительный контекст (например, направление взгляда пользователя или контекстную логику) для выбора основного объекта.
  4. Определение Метки: Определение Label для объекта интереса. Это может включать сравнение Feature Vector с индексом для поиска похожих объектов и извлечения их меток (согласно Claim 4).
  5. Обнаружение Неоднозначности: Анализ распознанного текста для определения неоднозначности, в частности, поиск местоимений (Pronoun).
  6. Формирование Запроса: Определение итогового запроса из текста.
  7. Резолюция Неоднозначности: Замена местоимения на определенную Label.
  8. Выполнение Поиска: Инициирование поиска с использованием сформированного уточненного запроса.

Какие данные и как использует

Данные на входе

  • Мультимедиа факторы: Image Input (изображения или видеокадры) с камеры, направленной на сцену. Используются для визуального распознавания объектов.
  • Аудио факторы: Audio Input (голосовой сигнал) с микрофона. Используется для распознавания речи и извлечения текста запроса.
  • Пользовательские и Географические факторы: Упоминаются дополнительные контекстные устройства ввода, такие как GPS, акселерометры, датчики освещенности, а также фронтальная камера (для отслеживания взгляда). Эти данные могут использоваться для уточнения контекста и выбора объекта интереса.

Какие метрики используются и как они считаются

Патент фокусируется на процессе обработки запроса, но упоминает ключевые метрики для анализа изображений:

  • Feature Vector (Вектор признаков) или Signature (Сигнатура): Количественная метрика, представляющая визуальные характеристики объекта (форма, соотношение сторон, цвет, текстура, паттерн).
  • Distance measurements (Измерения расстояния): Используются для определения визуального сходства (visual similarity) между Feature Vector входящего изображения и векторами изображений в индексе.
  • Object category (Категория объекта): Результат классификации объекта.

Методы анализа текста (NLP):

  • Pronoun Identification (Идентификация местоимений): Использование языковых правил для обнаружения местоимений в тексте запроса (например, правило, что местоимение после вопросительного слова является субъектом, который нужно заменить).

Выводы

  1. Визуальный контекст как ключ к пониманию языка: Патент демонстрирует, как Google использует визуальные данные для разрешения лингвистических неоднозначностей. Это фундаментальный принцип мультимодального поиска: то, что видит пользователь, определяет значение того, что он говорит.
  2. Трансформация запросов: от неоднозначных к сущностным: Система активно преобразует общие запросы с местоимениями в конкретные запросы, основанные на сущностях (Entities). Запрос "Что это?" становится "Что такое [Распознанный Объект]?".
  3. Критичность индекса изображений и распознавания: Эффективность системы напрямую зависит от полноты индекса изображений Google и точности алгоритмов распознавания (Image Recognition). Способность Google идентифицировать конкретный продукт или место по его Feature Vector является ключевой.
  4. Обработка сложных сцен: Система предусматривает механизмы для работы со сценами, содержащими несколько объектов, используя дополнительные контекстные сигналы (например, отслеживание взгляда) для определения намерения пользователя.
  5. Основа для Визуального Поиска (Visual Search): Этот патент описывает ядро технологий типа Google Lens и Circle to Search, где физический мир становится интерфейсом для поиска информации.

Практика

Best practices (это мы делаем)

  • Оптимизация изображений для распознавания: Используйте четкие, высококачественные, хорошо освещенные изображения продуктов, логотипов и объектов. Изображения должны быть легко распознаваемыми и выделяться на фоне. Это увеличивает вероятность того, что Google точно определит Label при визуальном поиске.
  • Обеспечение точности данных о сущностях: Убедитесь, что ваши сущности (продукты, локации) корректно представлены в индексах Google (Image Search, Merchant Center, Google Business Profile). Метки (Labels), связанные с изображениями, должны быть точными, так как они станут терминами запроса.
  • Использование структурированных данных для связи Изображение-Сущность: Активно используйте Schema.org (например, Product, ImageObject, LocalBusiness) для явного указания связи между изображениями на ваших страницах и соответствующими им сущностями и их названиями. Это помогает Google формировать корректные Labels.
  • Фокус на Entity SEO: Укрепляйте авторитет и узнаваемость ваших брендов и продуктов как сущностей. Чем известнее сущность, тем вероятнее, что она присутствует в индексе изображений с корректной меткой.

Worst practices (это делать не надо)

  • Использование нечетких или стоковых изображений: Применение низкокачественных, темных или слишком общих стоковых фотографий для представления конкретных продуктов затрудняет генерацию точного Feature Vector и распознавание объекта.
  • Несоответствие изображений и контента: Размещение изображений, которые не соответствуют окружающему тексту или метаданным. Это может привести к некорректной индексации и ошибкам в определении Label.
  • Игнорирование оптимизации Product Feeds: Для E-commerce критически опасно иметь неточные или неполные данные в Merchant Center. Если изображение продукта связано с неверным названием, система уточнит запрос пользователя неверной меткой.
  • Блокировка индексации изображений: Закрытие важных изображений от сканирования Googlebot-Image не позволит им попасть в индекс и участвовать в визуальном поиске.

Стратегическое значение

Патент подтверждает стратегический сдвиг Google в сторону мультимодальности и визуального поиска. Поиск больше не ограничивается текстовым вводом; окружающая среда пользователя становится интерфейсом запроса. Для SEO это означает, что оптимизация должна выходить за рамки традиционных ключевых слов и включать оптимизацию визуального представления сущностей. Стратегии должны учитывать, как продукты, бренды и контент обнаруживаются пользователями визуально через инструменты типа Google Lens или Circle to Search.

Практические примеры

Сценарий: Оптимизация карточки товара для визуального коммерческого поиска

Пользователь видит кроссовки на улице, наводит камеру смартфона и спрашивает: "Где купить такие?"

  1. Действия SEO/Владельца магазина:
    • Разместить на сайте магазина высококачественные фотографии этих кроссовок с разных ракурсов, включая вид сверху и сбоку, а также фото коробки и логотипа крупным планом.
    • Обеспечить передачу этих изображений и точного названия модели (например, "Adidas Samba OG Cloud White") через Merchant Center Feed и Sitemap для изображений.
    • Внедрить разметку Product Schema с указанием image, name, sku, brand.
  2. Механизм работы Google:
    • Google получает изображение и голосовой запрос.
    • Система анализирует изображение, генерирует Feature Vector и сравнивает его с индексом.
    • Благодаря качественным фото и точным данным в индексе, Google распознает объект и определяет Label: "Adidas Samba OG Cloud White".
    • Система идентифицирует местоимение "такие" и заменяет его меткой.
    • Уточненный запрос: "Где купить Adidas Samba OG Cloud White".
  3. Ожидаемый результат: Google предоставляет результаты из Google Shopping, где присутствует карточка товара оптимизированного магазина, увеличивая вероятность конверсии через визуальный поиск.

Вопросы и ответы

Как этот патент связан с Google Lens или Circle to Search?

Этот патент описывает фундаментальную технологию, лежащую в основе Google Lens и Circle to Search. Он объясняет, как система объединяет визуальный ввод (то, что видит камера или что отображается на экране) с языковым запросом пользователя. Механизм распознавания объекта, определения его метки и использования этой метки для уточнения запроса – это именно то, как работают эти современные инструменты мультимодального поиска.

Влияет ли описанный механизм на ранжирование моего сайта?

Напрямую на алгоритмы ранжирования он не влияет. Это технология этапа Понимания Запросов (Query Understanding). Однако он критически влияет на то, по какому именно запросу будет ранжироваться ваш сайт. Если ваш продукт был успешно распознан визуально, система сгенерирует очень специфичный запрос (например, название модели), и ваш сайт будет конкурировать именно по нему. Это может значительно изменить структуру получаемого трафика.

Что такое Feature Vector и почему он важен для SEO?

Feature Vector – это числовое представление визуальных характеристик изображения (форма, цвет, текстура). Google использует его для определения визуального сходства и идентификации конкретных объектов. Для SEO это важно, потому что точность генерации этого вектора зависит от качества ваших изображений. Чем лучше качество, тем точнее Google сможет идентифицировать ваш продукт среди миллионов других.

Как лучше всего оптимизировать изображения для этой системы?

Ключевые факторы: четкость, высокое разрешение, хорошее освещение и отсутствие визуального шума. Для продуктов рекомендуется использовать изображения на нейтральном фоне, а также lifestyle-фотографии. Важно предоставлять несколько ракурсов, чтобы система могла построить более полное представление об объекте и сгенерировать точный Feature Vector.

Помогает ли структурированная разметка (Schema.org) в этом процессе?

Да, она играет важную вспомогательную роль. Хотя основное распознавание происходит визуально (сравнение Feature Vectors), наличие разметки (например, Product Schema) на странице, где размещено изображение, помогает Google подтвердить связь между изображением и сущностью. Это укрепляет уверенность системы в правильности определенной метки (Label).

В каких нишах этот патент наиболее применим?

Наибольшее влияние ощущается в E-commerce (одежда, электроника, товары для дома), где визуальное распознавание продуктов критично. Также он важен для локального поиска (распознавание ресторанов, достопримечательностей), автомобильной тематики (распознавание моделей авто) и сферы искусства. Везде, где объект можно увидеть и задать о нем вопрос, этот механизм будет работать.

Что происходит, если Google не может распознать объект на изображении?

Если объект не распознан или Label не может быть определена с достаточной уверенностью, система, скорее всего, не сможет разрешить неоднозначность в запросе. В этом случае запрос либо будет обработан в его исходной, неоднозначной форме (что приведет к неточным результатам), либо система может попытаться классифицировать объект более широко (например, "синие кроссовки" вместо конкретной модели) и использовать эту общую метку.

Учитывает ли система текст на изображении (OCR)?

Хотя данный патент фокусируется на распознавании объектов через Image Analysis и Feature Vectors, современные системы Google (такие как Google Lens) безусловно используют Optical Character Recognition (OCR) как часть общего анализа изображения. Текст на изображении (например, название бренда на продукте) может быть мощным сигналом для определения корректной Label.

Как система обрабатывает ситуацию, когда на изображении несколько объектов?

Патент описывает механизмы для выбора Object of Interest. Система может использовать дополнительные сенсорные данные, например, отслеживание взгляда пользователя (с помощью фронтальной камеры), чтобы понять, на что он смотрит. Также может применяться контекстная логика: если пользователь спрашивает "как высоко это?" в городе, система предположит, что речь идет о самом высоком здании в кадре.

Является ли это частью алгоритма MUM (Multitask Unified Model)?

MUM – это значительно более продвинутая мультимодальная модель, но она построена на принципах, описанных в этом патенте. Способность MUM объединять информацию из разных модальностей (текст, изображение, аудио) для глубокого понимания запроса является эволюцией идеи, заложенной здесь: использование визуального контекста для разрешения языковой неоднозначности.

Похожие патенты

Как Google использует камеру, микрофон и GPS смартфона для понимания контекстуальных запросов типа «Что это?»
Google использует данные с датчиков мобильного устройства (камера, микрофон, GPS) для понимания неоднозначных запросов пользователя, таких как «Что я вижу?» или «Что это за песня?». Система распознает объекты или звуки в окружении пользователя и использует эту информацию для преобразования контекстуального вопроса в конкретный поисковый запрос, обеспечивая релевантные результаты на основе реального мира.
  • US20130311506A1
  • 2013-11-21
  • Семантика и интент

  • Мультимедиа

Как Google использует контент на экране пользователя для понимания и переписывания неоднозначных запросов
Google использует механизм для понимания неоднозначных запросов (например, «Что это?»), анализируя то, что пользователь видит на экране своего устройства. Система определяет основное изображение, распознает объекты на нем и анализирует окружающий текст. Затем, используя эту информацию и историю поиска пользователя, она переписывает исходный запрос в конкретный поисковый запрос.
  • US10565256B2
  • 2020-02-18
  • Семантика и интент

  • Мультимедиа

  • Персонализация

Как Google объединяет изображение с камеры и одновременный аудиовход (речь и звуки) для выполнения сложных мультимодальных поисковых запросов
Система мультимодального поиска Google, которая одновременно обрабатывает визуальные данные с камеры и аудиоданные с микрофона. Система извлекает визуальные признаки, транскрибирует речь и анализирует звуковые сигнатуры. Это позволяет пользователям задавать контекстные вопросы об объектах в кадре (например, «[Фото платья] + Найди такое же синее») или диагностировать проблемы по звуку и изображению (например, шум неисправного прибора), получая релевантные результаты из веб-поиска, поиска по картинкам или от генеративных моделей.
  • US12346386B2
  • 2025-07-01
  • Мультимедиа

  • Семантика и интент

Как Google использует мультимодальный поиск (изображение + голос) для более точного понимания запросов и ранжирования результатов
Google использует механизм мультимодального поиска, обрабатывая запросы, которые одновременно содержат изображение (например, фото) и аудио (например, голосовое описание или уточнение). Система анализирует визуальные признаки и конвертирует речь в текст, используя совместную модель релевантности для поиска ресурсов (таких как товары или веб-страницы), которые соответствуют обоим типам входных данных.
  • US8788434B2
  • 2014-07-22
  • Мультимедиа

  • Семантика и интент

  • SERP

Как Google заложил основу визуального поиска (Google Lens), превращая изображения с камеры в поисковые запросы
Google разработал систему, позволяющую использовать изображения с мобильных устройств в качестве поисковых запросов. Система распознает объекты на изображении (продукты, здания, текст, лица), преобразует их в символьное описание (текстовый запрос) и использует его для поиска релевантной информации в стандартной поисковой системе.
  • US8421872B2
  • 2013-04-16
  • Мультимедиа

  • Семантика и интент

  • Индексация

Популярные патенты

Как Google предсказывает, какие сайты будут интересны пользователю на основе его контекста (местоположение, время, интересы) без поискового запроса
Google использует агрегированные данные о поведении пользователей для прогнозирования контента. Система анализирует контекст пользователя (местоположение, время, интересы, историю) и определяет, какие сайты посещают похожие пользователи в аналогичном контексте значительно чаще, чем пользователи в целом. Этот механизм позволяет предлагать релевантный контент без явного запроса (например, в Google Discover).
  • US9195703B1
  • 2015-11-24
  • Персонализация

  • Поведенческие сигналы

  • Семантика и интент

Как Google использует данные о поведении пользователей и длительность кликов для улучшения и переписывания поисковых запросов
Google использует систему для автоматического переписывания запросов пользователей. Система анализирует миллионы прошлых поисковых сессий, чтобы определить, как пользователи уточняли свои запросы и насколько они были удовлетворены результатами (измеряя длительность кликов). На основе этого рассчитывается «Ожидаемая полезность» (Expected Utility) для предложенных вариантов запросов, что позволяет Google предлагать пользователю те формулировки, которые с наибольшей вероятностью приведут к качественному ответу.
  • US7617205B2
  • 2009-11-10
  • Поведенческие сигналы

  • Семантика и интент

  • SERP

Как Google использует контент веб-страниц для генерации, верификации и адаптации AI-ответов в поиске (SGE/AI Overviews)
Google использует Большие Языковые Модели (LLM) для создания генеративных сводок (AI Overviews/SGE). Для обеспечения точности система не полагается только на знания LLM, а обрабатывает контент из актуальных результатов поиска (SRDs). Патент описывает архитектуру этого процесса: как выбираются источники, как генерируется сводка на их основе (Grounding), как проверяется информация для добавления ссылок (Verification), и как ответ адаптируется под контекст и действия пользователя.
  • US20250005303A1
  • 2025-01-02
  • SERP

  • EEAT и качество

  • Персонализация

Как Google динамически меняет формулы ранжирования, адаптируя веса факторов под контекст запроса и пользователя
Google не использует единую модель ранжирования. Система использует машинное обучение для создания множества специализированных моделей (Predicted Performance Functions), обученных на исторических данных о кликах для разных контекстов (Search Contexts). При получении запроса система определяет контекст (тип запроса, язык, локация пользователя) и применяет ту модель, которая лучше всего предсказывает CTR в этой ситуации, динамически изменяя значимость различных сигналов ранжирования.
  • US8645390B1
  • 2014-02-04
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google персонализирует поисковые подсказки (Autocomplete) на основе недавно просмотренного медиаконтента
Google использует информацию о недавно потребленном пользователем медиаконтенте (видео, аудио, книги, игры) для персонализации поисковых подсказок. Система извлекает атрибуты (аспекты) из этого контента, такие как названия, имена актеров или артистов, и повышает в ранжировании те подсказки, которые соответствуют этим атрибутам. Влияние потребления медиа на подсказки зависит от времени, прошедшего с момента просмотра, типа контента и того, делился ли им пользователь.
  • US9268880B2
  • 2016-02-23
  • Персонализация

  • Семантика и интент

  • Мультимедиа

Как Google классифицирует интент запросов (например, поиск порнографии), анализируя историю использования фильтров (SafeSearch)
Google использует данные о том, как часто пользователи включают или отключают фильтры контента (например, SafeSearch) при вводе конкретного запроса. Анализируя нормализованное соотношение фильтрованных и нефильтрованных поисковых операций, система классифицирует запрос как целенаправленно ищущий определенный тип контента (например, adult). Эта классификация затем используется для повышения или понижения релевантности соответствующего контента в выдаче.
  • US9152701B2
  • 2015-10-06
  • Семантика и интент

  • Безопасный поиск

  • Поведенческие сигналы

Как Google рассчитывает репутационную значимость организаций и людей, используя данные из внешних источников для ранжирования
Google использует систему для оценки репутации и престижа сущностей (например, организаций или людей). Система не полагается только на предоставленные данные, а активно ищет «Дополнительные Аспекты» из внешних источников (например, профессиональные сети, СМИ). На основе этих данных рассчитываются две метрики: «Репутационная Значимость» (престиж относительно аналогов) и «Двустороннее Соответствие» (взаимная привлекательность), которые используются для ранжирования результатов поиска и рекомендаций.
  • US10878048B2
  • 2020-12-29
  • EEAT и качество

  • SERP

  • Knowledge Graph

Как Google определяет свежесть документа, анализируя возраст ссылающихся страниц и динамику появления ссылок (Link Velocity)
Google использует методы для оценки свежести документа, когда дата его обновления неизвестна или ненадежна. Система анализирует даты обновления страниц, которые ссылаются на документ, а также историю появления и удаления этих ссылок (Link Velocity). Если на документ ссылаются недавно обновленные страницы или количество ссылок растет, он считается свежим.
  • US7797316B2
  • 2010-09-14
  • Свежесть контента

  • Ссылки

  • Техническое SEO

Как Google использует консенсус анкорных текстов для определения авторитетных источников и проверки фактов в Knowledge Graph
Google определяет, является ли веб-страница авторитетным источником о конкретной сущности (Entity), анализируя все анкорные тексты входящих ссылок. Система находит консенсусное описание (Center of Mass). Если оно совпадает с именем сущности и это имя присутствует в заголовке страницы, документ используется как эталон для проверки (Corroboration) фактов в базе знаний Google (Fact Repository).
  • US9208229B2
  • 2015-12-08
  • Knowledge Graph

  • Ссылки

  • EEAT и качество

Как Google использует контент вокруг ссылок (вне анкора) для генерации «Синтетического Описательного Текста» и ранжирования вашего сайта
Google может генерировать «Синтетический Описательный Текст» для страницы, анализируя контент и структуру сайтов, которые на нее ссылаются. Система создает структурные шаблоны для извлечения релевантного текста (например, заголовков или абзацев рядом со ссылкой), который затем используется как мощный сигнал ранжирования. Этот механизм позволяет лучше понять содержание страницы, особенно если традиционный анкорный текст низкого качества или отсутствует.
  • US9208233B1
  • 2015-12-08
  • Ссылки

  • Семантика и интент

  • Индексация

seohardcore