SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google позволяет пользователям переключаться между ключевыми моментами (Хуками) в VOD-контенте на основе анализа видео и внешних сигналов

ON-DEMAND VIDEO SURFING (Серфинг по видео по запросу)
  • US20180302680A1
  • Google LLC
  • 2016-12-16
  • 2018-10-18
  • Мультимедиа
  • Семантика и интент
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google разработал систему для улучшения навигации по VOD-контенту (Video-on-Demand). Вместо просмотра видео с начала, пользователи могут искать конкретные типы сцен («хуки»). Система идентифицирует эти моменты, используя анализ видео (Video Image Recognition) и внешние сигналы (например, популярность клипов в соцсетях), и позволяет переключаться между разными видео, начиная просмотр сразу с этих ключевых сцен (time-shifting).

Описание

Какую проблему решает

Патент решает проблему неэффективности поиска и выбора контента на платформах видео по запросу (VOD). Традиционные методы навигации, основанные на статических метаданных (обложки, описания, рейтинги), часто приводят к «парадоксу выбора» (paradox of choice), когда пользователи тратят много времени на поиск. Изобретение улучшает обнаружение контента, позволяя пользователям быстро оценить самые захватывающие или релевантные моменты (hooks) в различных видео.

Что запатентовано

Запатентована система «серфинга по видео по запросу» (On-demand video surfing). Она позволяет пользователю искать контент по типу содержащихся в нем сцен или событий (например, «автомобильные погони» или «голы»). Система идентифицирует видео с такими сценами (hooks) и применяет механизм сдвига времени (time-shifting). При навигации между результатами воспроизведение автоматически начинается с найденного момента, а не с начала видео.

Как это работает

Механизм работает следующим образом:

  • Анализ контента: VOD-контент предварительно анализируется для идентификации и разметки hooks. Это делается с помощью Video Image Recognition и анализа внешних поведенческих сигналов.
  • Запрос пользователя: Пользователь вводит запрос, указывая тип интересующей его сцены.
  • Поиск и Time-Shifting: Система находит видео с соответствующими сценами и подготавливает их к воспроизведению с момента начала hook.
  • Серфинг: Пользователь может быстро переключаться между результатами. При выборе нового видео оно автоматически начинается с релевантного hook.
  • Продолжение просмотра: После завершения hook воспроизведение автоматически продолжается до конца видео, либо пользователь может перезапустить видео с начала.

Актуальность для SEO

Высокая. Технологии, лежащие в основе патента, — глубокий анализ видеоконтента и идентификация ключевых моментов — крайне актуальны. Они напрямую соотносятся с функциями, которые Google активно развивает, такими как «Ключевые моменты» (Key Moments) в Google Search и YouTube. Понимание структуры видео на уровне сцен и использование поведенческих сигналов для оценки их важности является стратегическим направлением.

Важность для SEO

Влияние на традиционное веб-SEO минимальное, так как патент описывает навигацию внутри VOD-платформ. Однако для Video SEO (VSEO) значение патента существенно (7/10). Он демонстрирует, что Google обладает технологиями (Video Image Recognition) для глубокого понимания содержания видео на уровне отдельных сцен и активно использует внешние поведенческие сигналы для определения ценности этих сцен. Это подчеркивает важность оптимизации видео на уровне ключевых сегментов (hooks).

Детальный разбор

Термины и определения

Hook (Хук, Ключевой момент)
Сцена в видео, предназначенная для привлечения внимания пользователя (например, экшн-сцена, гол). Hook может быть определен автоматически на основе анализа контента или внешних сигналов.
On-demand video surfing (Серфинг по видео по запросу)
Процесс быстрого сканирования различного VOD-контента путем навигации непосредственно к интересующим моментам (hooks) в каждом видео.
Time-shift (Временной сдвиг)
Механизм инициации воспроизведения видео в момент времени, отличный от нуля (не с начала). Реализуется путем начала стриминга с нужного момента или отправки временной метки (mark) клиентскому устройству.
Video Image Recognition (Распознавание видеоизображений)
Технологии (компьютерное зрение), используемые для анализа, идентификации и разметки различных частей видео как содержащих определенный тип hook (определение действий, событий, объектов).
Extracted Clips (Извлеченные клипы)
Фрагменты видео, загруженные пользователями на платформы обмена контентом. Используются как внешний сигнал для идентификации hooks.
Spikes on Social Media (Всплески в социальных сетях)
Повышенная активность в социальных сетях, связанная с конкретным моментом в видео. Используется как внешний сигнал для идентификации hooks.
VOD (Video-on-Demand)
Видео по запросу. Контент, доступный для просмотра по выбору пользователя.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает метод, реализуемый поставщиком услуг (Service Provider) для обеспечения серфинга по VOD.

  1. Поиск VOD-контента на основе критериев запроса для идентификации видео, содержащих соответствующую сцену (hook).
  2. Предоставление доступа к полным версиям (full versions) идентифицированных видео.
  3. В ответ на выбор пользователем первого видео: инициировать воспроизведение полной версии через первый поток контента (first content stream), начиная со сцены, соответствующей критериям.
  4. В ответ на выбор пользователем второго видео: инициировать воспроизведение полной версии через второй поток контента (second content stream), начиная с соответствующей сцены во втором видео.

Ядро изобретения — это возможность искать по типу сцены и переключаться между разными видеопотоками (полных версий), при этом воспроизведение в каждом потоке начинается не с начала, а с найденной сцены (hook).

Claim 7 (Зависимый от 1): Детализирует поведение системы после завершения сцены.

  1. Предоставление первого видео в виде потокового контента.
  2. Если воспроизведение сцены (hook) завершилось до того, как пользователь переключился на другое видео, система автоматически продолжает потоковую передачу оставшейся части первого видео.

Это гарантирует бесшовный переход от предпросмотра (hook) к полному просмотру видео, если пользователь заинтересовался.

Claim 14 (Независимый пункт): Описывает метод с точки зрения клиентского устройства (Video-rendering device).

  1. Получение поискового запроса с критериями.
  2. Отправка запроса на сервер для поиска VOD-контента.
  3. Получение доступа к полным версиям найденных видео.
  4. В ответ на выбор первого/второго видео, воспроизведение его полной версии через соответствующий поток, начиная с идентифицированной сцены.

Где и как применяется

Патент затрагивает этапы индексирования контента и финального представления результатов пользователю на VOD-платформах.

INDEXING – Индексирование и извлечение признаков (Анализ Видео)
Это ключевой этап. VOD-контент должен быть проанализирован офлайн для идентификации и разметки сцен (hooks). Патент подробно описывает этот процесс:

  • Анализ контента: Использование video image recognition techniques для анализа, идентификации и тегирования различных частей видео на предмет наличия определенных событий, действий или объектов.
  • Анализ внешних сигналов: Определение hooks на основе поведенческих данных. Упоминаются spikes on social media (всплески в соцсетях), extracted clips uploaded (загруженные пользователями клипы) и crowd volume (громкость толпы в спорте).

На этом этапе создаются временные метки (marks) для hooks.

QUNDERSTANDING – Понимание Запросов
Система должна интерпретировать запросы, направленные на поиск типов сцен (например, «покажи мне взрывы», «голы в футболе вчера вечером»), и сопоставлять их с тегами, сгенерированными на этапе индексирования.

RANKING – Ранжирование (Отбор VOD-контента)
Система отбирает видео из библиотеки VOD, которые содержат hooks, соответствующие запросу пользователя. (Алгоритмы ранжирования в патенте не детализируются).

METASEARCH / RERANKING (Доставка Контента и UI)
Это этап основного применения патента, отвечающий за пользовательский опыт. Система предоставляет интерфейс для «серфинга». Видео представлены как потоки (content streams), смещенные по времени (time-shifted) к началу релевантного hook. Система управляет переключением между этими потоками.

Входные данные:

  • Библиотека VOD-контента.
  • Предварительно рассчитанные данные о hooks (тип, временные метки, внешние сигналы популярности).
  • Пользовательский запрос, определяющий тип сцены.

Выходные данные:

  • Набор идентифицированных видео.
  • Интерфейс для навигации, где каждое видео представлено потоком, начинающимся с релевантного hook (или полные версии с метками marks).

На что влияет

  • Конкретные типы контента и ниши: Наибольшее влияние на контент с ярко выраженными моментами: спорт (голы, моменты игры), фильмы (экшн-сцены), пользовательский контент (например, на YouTube).
  • Специфические запросы: Влияет на запросы, ориентированные на события, действия или объекты внутри видео, а не только на общую тематику или название.
  • Платформы: Применяется на платформах VOD (YouTube, Google TV) и влияет на отображение видео в Google Search (Key Moments).

Когда применяется

  • Условия работы: Алгоритм применяется, когда пользователь инициирует поиск, направленный на определенный тип сцены, или активирует специальный режим навигации («серфинг») на VOD-платформе.
  • Триггеры: Получение запроса, специфицирующего критерии поиска для hook (search criteria).
  • Необходимое условие: Наличие в базе проиндексированного контента с размеченными hooks.

Пошаговый алгоритм

Процесс А: Предварительная обработка (Офлайн / Индексирование)

  1. Сбор данных: Получение доступа к библиотеке VOD-контента.
  2. Идентификация и Тегирование Hooks: Анализ видео для определения ключевых моментов. Этот шаг включает:
    • Применение Video Image Recognition techniques для обнаружения событий, действий, объектов.
    • Анализ аудио (например, определение crowd volume).
    • Анализ внешних данных: мониторинг spikes on social media и анализ extracted clips, загруженных пользователями.
  3. Создание меток и Индексация: Для каждого идентифицированного hook сохраняется тип сцены и временная метка (mark) начала и окончания.

Процесс Б: Обработка запроса (Онлайн / Серфинг)

  1. Получение запроса: Система получает запрос от пользователя, определяющий тип сцены.
  2. Поиск контента: Система ищет в индексе видео, содержащие hooks, соответствующие критериям запроса.
  3. Подготовка к воспроизведению (Time-shifting): Для найденных видео система определяет точки начала воспроизведения (alignment points). Это может быть подготовка потока или генерация метки (mark) для клиента.
  4. Инициация воспроизведения: В ответ на выбор пользователем первого видео, воспроизведение начинается с идентифицированного hook.
  5. Навигация (Серфинг): При получении команды навигации система прекращает текущее воспроизведение и инициирует воспроизведение следующего видео (переключение потока), также начиная с его hook.
  6. Продолжение просмотра: Если hook завершился, а пользователь не выполнил навигацию, система автоматически продолжает воспроизведение видео до конца.

Какие данные и как использует

Данные на входе

Патент подразумевает использование следующих данных для идентификации hooks и управления навигацией:

  • Мультимедиа факторы (Ключевые): Видео- и аудиоданные. Система анализирует визуальный ряд (Video Image Recognition) для идентификации сцен, действий, событий, объектов. Также анализируется аудиодорожка (например, crowd volume — громкость толпы на спортивных мероприятиях).
  • Поведенческие и Внешние факторы (Критические): Патент явно упоминает использование внешних сигналов для определения hooks на основе взаимодействия аудитории:
    • Всплески активности в социальных сетях (spikes on social media) во время трансляции видео.
    • Извлеченные клипы, загруженные на сайты обмена контентом (extracted clips uploaded to a content sharing website, например, YouTube).
  • Пользовательские факторы: Поисковый запрос пользователя (упоминается голосовой ввод), определяющий тип сцены.
  • Контентные/Структурные факторы (Метаданные): Метаданные видео, если они содержат информацию, идентифицирующую сцены (например, разметка, предоставленная студией или создателем контента, или сгенерированные временные метки mark).

Какие метрики используются и как они считаются

Патент не описывает конкретные метрики ранжирования или формулы, но опирается на следующие методы идентификации:

  • Классификация сцен: Использование Video Image Recognition techniques для классификации сегментов видео по типам (Scene Type) и определения соответствия запросу пользователя.
  • Идентификация Hooks: Процесс определения наиболее привлекательных моментов. Методы включают автоматический анализ контента и анализ внешних сигналов вовлеченности (популярности сегментов).
  • Временные метки (Marks): Точное определение времени начала и окончания hook. Эти метки используются для реализации time-shifting.

Выводы

  1. Глубокое понимание видеоконтента: Патент подтверждает, что Google использует передовые технологии (Video Image Recognition) для понимания содержания видео на гранулярном уровне (сцены, события, объекты), выходя за рамки общих метаданных.
  2. Ключевые моменты (Hooks) как основа навигации: Система полагается на способность идентифицировать hooks в видео. Эти моменты становятся основными точками входа для пользователей (time-shifting).
  3. Использование внешних сигналов для определения ценности момента: Критически важный инсайт: для определения того, что является hook, система учитывает внешние данные — реакцию в социальных сетях (spikes on social media) и популярность отдельных клипов (extracted clips). Это связывает вовлеченность аудитории с навигацией по контенту.
  4. Приоритет вовлечения над последовательным просмотром: Весь механизм направлен на немедленное вовлечение пользователя путем показа наиболее интересного контента (hook) в первую очередь, минуя вступления.
  5. Значение для Video SEO: Для VSEO это означает стратегическую важность сегментации контента и оптимизации ключевых моментов (включая генерацию внешних сигналов вокруг них), а не только видео целиком.

Практика

Best practices (это мы делаем)

Рекомендации применимы к Video SEO (VSEO) и оптимизации контента на платформах, использующих подобные технологии (например, YouTube и функция Key Moments).

  • Стимулирование распространения клипов (Signal Generation): Активно создавайте и распространяйте короткие клипы (Shorts, Reels) ключевых моментов ваших видео в социальных сетях. Поскольку патент учитывает extracted clips и spikes on social media для идентификации hooks, высокая внешняя активность вокруг сегмента сигнализирует о его важности.
  • Создание четких и идентифицируемых «Hooks»: Структурируйте видео так, чтобы оно содержало яркие ключевые моменты. Эти моменты должны быть визуально и аудиально различимы, чтобы автоматизированные системы (Video Image Recognition) могли их классифицировать.
  • Структурирование видео (Key Moments): Активно используйте инструменты структурирования контента, такие как временные метки (timestamps) и главы (Chapters) на YouTube. Это помогает системам Google лучше понять структуру видео и выделить hooks.
  • Оптимизация под распознавание сцен: Используйте четкое изображение, хороший звук, а также текстовые элементы на экране (если применимо), которые могут помочь системе понять контекст сцены.
  • Оптимизация метаданных сегментов: Названия глав и текст вокруг временных меток должны точно описывать содержание сегмента, увеличивая вероятность выбора этого сегмента как точки входа.

Worst practices (это делать не надо)

  • Создание монотонного контента: Видео без явных ключевых моментов или четкой структуры будут плохо работать в системах обнаружения контента, так как алгоритмам будет сложно идентифицировать релевантный hook.
  • Игнорирование качества продакшена: Низкое качество видео и звука затрудняет работу систем распознавания изображений и аудио, что снижает вероятность корректной идентификации сцен.
  • Ориентация только на метаданные: Полагаться исключительно на заголовки и описания. Системы все чаще анализируют само содержание видеоряда и поведенческие сигналы для его рекомендации и сегментации.
  • Запрет на создание клипов и распространение: Ограничение возможности пользователей делиться контентом или создавать клипы (например, в YouTube) снижает количество внешних поведенческих сигналов, используемых для идентификации hooks.

Стратегическое значение

Патент подчеркивает стратегический переход в Video SEO от оптимизации видео как единого целого к оптимизации его отдельных сегментов. Видимость видео все больше зависит от того, как машинные алгоритмы воспринимают визуальное и аудио содержание посекундно, и как аудитория реагирует на конкретные моменты. Долгосрочная стратегия должна включать адаптацию продакшена контента под возможности автоматического распознавания и генерацию внешних сигналов.

Практические примеры

Сценарий: Оптимизация видеорецепта для VSEO с учетом внешних сигналов

  1. Идентификация Hooks: В 10-минутном видео о приготовлении пасты карбонара определяются ключевые hooks: (A) Смешивание соуса, (B) Финальная сервировка.
  2. Оптимизация на платформе: В YouTube видео разбивается на главы с четкими названиями (например, "03:15 Секрет идеального соуса Карбонара").
  3. Генерация внешних сигналов (согласно патенту): Создается короткий 30-секундный клип момента смешивания соуса (Hook A) и активно продвигается в TikTok и Instagram Reels, стимулируя обсуждения.
  4. Ожидаемый результат:
    • Системы Google, использующие Video Image Recognition, идентифицируют эти сцены.
    • Внешняя активность в соцсетях (spikes on social media и популярность extracted clip) подтверждает важность Hook A.
    • Видео получает больше шансов быть показанным (начиная с Hook A через time-shifting) в ответ на запросы типа «как смешать соус карбонара» в поиске или в системах типа On-demand video surfing.

Вопросы и ответы

Как именно система определяет, что является «Hook» (ключевым моментом) в видео?

Патент описывает несколько методов. Во-первых, используются технологии распознавания видеоизображений (Video Image Recognition) для идентификации сцен с определенными действиями или событиями. Во-вторых, критически важны внешние поведенческие сигналы: всплески активности в социальных сетях (spikes on social media), анализ загруженных пользователями клипов (extracted clips) и даже анализ аудио (например, crowd volume на спортивных мероприятиях).

Применяется ли этот патент к YouTube?

Да, патент подан Google и описывает технологию для VOD-контента. Функциональность YouTube, такая как «Ключевые моменты» (Key Moments) и автоматическое определение глав, основана на технологиях, описанных в этом патенте (идентификация сцен и time-shifting). Понимание этих механизмов критично для YouTube SEO.

Влияет ли этот механизм на ранжирование видео в поиске?

Патент не описывает алгоритмы ранжирования, а фокусируется на навигации. Однако, если видео содержит четко идентифицируемые hooks, оно может получить больше видимости в интерфейсах обнаружения контента. Успешное вовлечение пользователя через hook может привести к более длительному просмотру, что является позитивным поведенческим сигналом для алгоритмов ранжирования.

Стоит ли мне создавать короткие клипы из моих длинных видео на основе этого патента?

Да, это настоятельно рекомендуется. В патенте прямо указано, что extracted clips uploaded to a content sharing website используются как сигнал для идентификации важных моментов (hooks). Активное распространение клипов и генерация обсуждений в соцсетях помогают алгоритмам понять, какие части вашего видео наиболее интересны аудитории.

Нужно ли мне вручную размечать «Hooks» в моих видео?

Патент предполагает автоматическую идентификацию (с помощью Video Image Recognition и внешних сигналов). Однако использование доступных инструментов, таких как временные метки (timestamps) и главы (Chapters) на YouTube, помогает системам Google точнее понять структуру вашего видео и выделить ключевые моменты. Это лучшая практика для VSEO.

Что такое «Time-shift» в контексте этого патента?

Time-shift означает, что когда пользователь выбирает видео в режиме «серфинга», воспроизведение начинается не с 0:00, а со времени начала релевантной сцены (hook). Это позволяет пользователю сразу увидеть интересующий его контент, минуя вступление.

Означает ли этот патент, что Google анализирует содержание каждого кадра моих видео?

Да, патент прямо указывает на использование Video Image Recognition для анализа, идентификации и разметки различных частей видео. Это подтверждает, что Google обладает техническими возможностями для глубокого анализа видеоряда с целью понимания того, что именно происходит на экране, включая действия, события и присутствующие объекты.

Если в моем видео несколько ключевых моментов, как система их покажет?

Патент предусматривает такую ситуацию. Система может сгенерировать несколько записей (потоков) для одного и того же видео в списке результатов, каждая из которых будет смещена по времени к своему hook. Это позволяет пользователю просматривать разные ключевые моменты одного видео последовательно.

Что происходит после того, как «Hook» заканчивается?

Согласно патенту (Claim 7), если пользователь не переключился на следующее видео, воспроизведение автоматически продолжается до конца видео. Это обеспечивает бесшовный переход от предпросмотра ключевого момента к полному потреблению контента.

Влияет ли этот патент на ранжирование моего сайта в Google Поиске?

Нет, напрямую не влияет. Патент описывает интерфейс для VOD-платформ. Однако технологии анализа видео, описанные в нем (идентификация hooks), используются в Google Поиске для отображения функции Key Moments для видео, размещенных на сайтах, что может повысить CTR из поиска.

Похожие патенты

Как Google автоматически определяет и отображает ключевые моменты (Key Moments) в видео для улучшения навигации
Google использует систему для анализа видеоконтента с помощью текстовых, визуальных и аудиосигналов. Система определяет "ключевые моменты" (salient topics), генерирует для них текстовые метки и интеллектуально выбирает наиболее релевантные стоп-кадры. Эти "временные анкоря" (Video Timed Anchors) позволяют пользователям понять структуру видео и перейти к интересующему сегменту прямо из поиска или плеера.
  • US20240046964A1
  • 2024-02-08
  • Мультимедиа

  • Семантика и интент

Как Google (YouTube) использует последовательность просмотров и общее время просмотра для определения и ранжирования похожих видео
Google использует поведенческие сигналы для определения похожих видео на платформах типа YouTube. Система анализирует, какие видео пользователи смотрят одно за другим в течение короткого времени (ко-просмотры). Если пользователи положительно взаимодействуют (например, долго смотрят) с Видео А и сразу после этого с Видео Б, система считает их связанными. Финальный список рекомендаций ранжируется с учетом временной близости просмотров и общего времени просмотра (Total Watch Time).
  • US9088808B1
  • 2015-07-21
  • Поведенческие сигналы

  • Мультимедиа

  • Персонализация

Как Google использует анализ жестов и машинное обучение для показа интерактивных видео-превью прямо в результатах поиска
Google использует интерфейс для поиска медиаконтента, объединяющий прокручиваемый список результатов и специальную «область фокуса» для автоматического воспроизведения превью. Система анализирует жесты пользователя (свайпы, касания) в реальном времени, используя персонализированное машинное обучение для определения заинтересованности, и мгновенно показывает соответствующее превью, не требуя перехода на другую страницу.
  • US11762902B2
  • 2023-09-19
  • SERP

  • Поведенческие сигналы

  • Персонализация

Как Google использует "стену видео" с низкой частотой кадров для быстрого предпросмотра и обнаружения свежего контента
Google использует интерфейс "стена видео", отображающий множество роликов одновременно в виде версий с низкой частотой кадров (например, 1 кадр в секунду). Это позволяет пользователям быстро оценить содержание видео без когнитивной перегрузки. Система также может отображать и кластеризовать видео, которые загружаются в реальном времени, улучшая обнаружение свежего контента и событий.
  • US8935725B1
  • 2015-01-13
  • Мультимедиа

  • Свежесть контента

Как Google создает видео-нарезки (Composite Videos) на лету, используя текстовый запрос и анализ аудиодорожек
Google может анализировать аудиодорожки (транскрипты) видео для идентификации конкретных сегментов, где произносятся слова из запроса пользователя. Система автоматически объединяет эти сегменты из разных видео в одно новое сводное видео (Composite Video). Для выбора сегментов используются метрики релевантности, популярности и свежести исходного контента.
  • US9672280B2
  • 2017-06-06
  • Мультимедиа

  • Индексация

  • Семантика и интент

Популярные патенты

Как Google использует околоссылочный текст и заголовки (Web Quotes) для индексирования страниц и генерации сниппетов
Google анализирует текст на страницах, ссылающихся на целевой документ, извлекая «Web Quotes». Это не только текст абзаца, окружающего ссылку, но и текст из ближайших заголовков. Эти цитаты ранжируются по качеству ссылающегося источника (например, PageRank) и используются для индексирования целевой страницы (даже если этих слов на ней нет) и для формирования сниппета в результатах поиска.
  • US8495483B1
  • 2013-07-23
  • Индексация

  • Ссылки

  • SERP

Как Google автоматически обнаруживает и индексирует контент внутри мобильных приложений для показа в поиске (App Indexing)
Google использует систему для индексации контента нативных мобильных приложений. Для приложений, связанных с веб-сайтами, система проверяет аффилиацию и использует существующие веб-URL для доступа к контенту приложения. Для приложений с кастомными URI система эмулирует работу приложения и итеративно обнаруживает внутренние ссылки. Это позволяет контенту из приложений появляться в результатах поиска в виде глубоких ссылок.
  • US10073911B2
  • 2018-09-11
  • Индексация

  • Краулинг

  • Ссылки

Как Google позволяет вебмастерам управлять весом и интерпретацией исходящих ссылок через атрибуты тега (Основа nofollow)
Google запатентовал механизм, позволяющий вебмастерам добавлять в теги ссылок () специальные пары "параметр=значение" (например, rel=nofollow или linkweight=0.5). Эта информация используется краулером и поисковой системой для изменения способа обработки ссылки, например, для корректировки передаваемого веса (PageRank) или блокировки ее учета.
  • US7979417B1
  • 2011-07-12
  • Ссылки

  • Краулинг

  • Техническое SEO

Как Google использует контент вокруг ссылок (вне анкора) для генерации «Синтетического Описательного Текста» и ранжирования вашего сайта
Google может генерировать «Синтетический Описательный Текст» для страницы, анализируя контент и структуру сайтов, которые на нее ссылаются. Система создает структурные шаблоны для извлечения релевантного текста (например, заголовков или абзацев рядом со ссылкой), который затем используется как мощный сигнал ранжирования. Этот механизм позволяет лучше понять содержание страницы, особенно если традиционный анкорный текст низкого качества или отсутствует.
  • US9208233B1
  • 2015-12-08
  • Ссылки

  • Семантика и интент

  • Индексация

Как Google использует генеративный ИИ для создания чата с конкретным сайтом прямо в поисковой выдаче и предоставления глубинных ссылок
Google патентует механизм, позволяющий пользователям взаимодействовать с конкретным результатом поиска через интерфейс чата (prompt input interface) прямо на странице выдачи. Искусственный интеллект анализирует запрос пользователя и его последующий промпт, определяет намерение (поиск информации, действие или навигация) и предоставляет глубинные ссылки (deep links) на конкретные внутренние страницы этого же домена в виде conversational response.
  • US12353458B2
  • 2025-07-08
  • Ссылки

  • Семантика и интент

  • SERP

Как Google динамически переоценивает значимость факторов ранжирования, основываясь на их надежности в контексте конкретной выдачи
Google использует механизм для повышения качества ранжирования путем анализа надежности (Trustworthiness) различных факторов, влияющих на позицию документа. Если система обнаруживает значительную разницу в надежности сигналов среди результатов поиска, она снижает влияние менее достоверных факторов. Это гарантирует, что документы, получившие высокие оценки за счет ненадежных или легко манипулируемых сигналов, не будут ранжироваться выше документов с более достоверными показателями качества и релевантности.
  • US9623119B1
  • 2017-04-18
  • EEAT и качество

  • Поведенческие сигналы

  • SERP

Как Google определяет структурно похожие запросы (sibling queries) для автоматического обучения NLP-моделей
Google использует метод для идентификации "родственных запросов" (sibling queries) — запросов с одинаковой структурой интента, но разными переменными (например, "погода в Москве" и "погода в Париже"). Система сравнивает шаблоны использования этих запросов в логах, основываясь на поведении пользователей, чтобы понять их взаимосвязь без традиционного NLP. Это позволяет автоматически генерировать масштабные наборы данных для обучения ИИ.
  • US11379527B2
  • 2022-07-05
  • Семантика и интент

  • Поведенческие сигналы

Как Google консолидирует сигналы ранжирования между мобильными и десктопными версиями страниц, используя десктопный авторитет для мобильного поиска
Патент Google описывает механизм для решения проблемы недостатка сигналов ранжирования в мобильном вебе. Система идентифицирует корреляцию между мобильной страницей и её десктопным аналогом. Если мобильная версия недостаточно популярна сама по себе, она наследует сигналы ранжирования (например, обратные ссылки и PageRank) от авторитетной десктопной версии, улучшая её позиции в мобильном поиске.
  • US8996514B1
  • 2015-03-31
  • Техническое SEO

  • Ссылки

Как Google использует пользовательский контент (UGC) и историю поиска для сбора структурированных отзывов
Google анализирует пользовательский контент (фотографии, посты, метаданные) и историю поиска, чтобы определить, с какими объектами (места, продукты, услуги) взаимодействовал пользователь. Система проактивно предлагает оставить структурированный отзыв, используя шаблон, который может быть предварительно заполнен на основе тональности исходного UGC. Это направлено на увеличение объема и подлинности отзывов.
  • US20190278836A1
  • 2019-09-12
  • Семантика и интент

  • Персонализация

  • EEAT и качество

Как Google фильтрует поведенческие сигналы, используя совместимость языков и стран пользователей
Google уточняет ранжирование, анализируя, откуда (страна) и на каком языке (язык пользователя) поступали исторические клики по документу. Если эти характеристики считаются «несовместимыми» с текущим пользователем, поведенческие сигналы (клики) от этих групп могут быть исключены или понижены в весе. Это предотвращает искажение релевантности данными от кардинально отличающихся аудиторий.
  • US8498974B1
  • 2013-07-30
  • Поведенческие сигналы

  • Мультиязычность

  • Персонализация

seohardcore