SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует субтитры для точной синхронизации времени в измененных видеопотоках

DETERMINING THE LOCATION OF A POINT OF INTEREST IN A MEDIA STREAM THAT INCLUDES CAPTION DATA (Определение местоположения точки интереса в медиапотоке, включающем данные субтитров)
  • US9215496B1
  • Google LLC
  • 2014-07-16
  • 2015-12-15
  • Мультимедиа
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Технология, позволяющая точно определить, какой момент оригинального видеоконтента просматривает пользователь, даже если трансляция прерывалась рекламой, ставилась на паузу или была отредактирована. Система анализирует последовательность субтитров и использует уникальные текстовые идентификаторы для синхронизации времени с оригиналом.

Описание

Какую проблему решает

Патент решает проблему точного определения абсолютной временной метки (позиции) в воспроизводимом медиапотоке относительно начала оригинального контента. Стандартные методы синхронизации ненадежны, если пользователь использует функции DVR (пауза, перемотка, trick play), или если провайдер (MSO) отредактировал контент или вставил посторонний контент (Extraneous Content), например, рекламу. Точное определение времени необходимо для реализации интерактивных функций, таких как привязка социальных комментариев к конкретным сценам или показ сцен-специфичной таргетированной рекламы.

Что запатентовано

Запатентована система и метод для уникальной идентификации любого момента в медиапотоке с использованием существующих данных субтитров (caption data strings). Система анализирует последовательность строк субтитров и вычисляет «Порядок дублирования» (Order of Duplication, OD), чтобы разрешить неоднозначность повторяющихся фраз. Затем используется хеширование последовательностей для сопоставления текущего момента воспроизведения с временной шкалой оригинального контента.

Как это работает

Система работает в два этапа.

  • Офлайн (Сервер): Сервер (Closed Caption Data Server) заранее анализирует субтитры оригинального контента. Он определяет Order of Duplication (OD) — минимальное количество последовательных строк, необходимое для уникальной идентификации любого момента — и создает эталонную хеш-таблицу.
  • Онлайн (Клиент/Сервер): Устройство воспроизведения (например, Set-Top Box) получает OD, считывает субтитры в реальном времени, вычисляет хеш-значение (Hash Value) текущей последовательности (длиной, основанной на OD) и отправляет его на сервер. Сервер сопоставляет хеш с таблицей и возвращает точное абсолютное время (Media Stream Time) в оригинальном контенте.

Актуальность для SEO

Средняя. Технология актуальна для инфраструктуры сервисов потокового вещания и интерактивного телевидения (например, Google TV, YouTube TV), где требуется точная синхронизация контента, рекламы и пользовательского взаимодействия. Патент описывает реализацию в контексте кабельного ТВ (MSO, Set-Top Box), но базовые принципы применимы шире.

Важность для SEO

Минимальное влияние на стандартное веб-SEO (1/10). Патент описывает чисто инфраструктурное решение для синхронизации медиапотоков и не имеет прямого отношения к алгоритмам ранжирования веб-сайтов. Он не дает прямых практических рекомендаций для оптимизации веб-контента. Однако он имеет стратегическое значение для понимания того, как Google может использовать транскрипты для анализа и сегментации видео (Video SEO).

Детальный разбор

Термины и определения

Caption Data Strings (Строки данных субтитров)
Текстовые данные (субтитры, Closed/Open Captions), закодированные в медиапотоке. Включают диалоги, описание звуков и т.д. Являются основой для синхронизации. Патент использует термины Captions и Subtitles как синонимы.
Closed Caption Data Server (Сервер данных субтитров)
Серверный компонент, который заранее обрабатывает субтитры, вычисляет Order of Duplication и хранит хеш-таблицы.
Extraneous Content (Посторонний контент)
Любой контент (например, реклама), вставленный в медиапоток, который не является частью оригинального материала и искажает временную шкалу воспроизведения.
Hash Value (Хеш-значение)
Уникальный идентификатор, вычисленный на основе определенной последовательности Caption Data Strings.
Media Stream Time (Время медиапотока)
Абсолютная временная метка момента относительно начала оригинального контента. Определяется путем сопоставления Hash Value.
Order of Duplication (OD) (Порядок дублирования)
Ключевая метрика. Минимальное количество последовательных строк субтитров (текущая + предшествующие), необходимое для уникальной идентификации текущей строки, если она повторяется в контенте.
Point of Interest (POI) (Точка интереса)
Конкретный момент в медиапотоке, для которого необходимо определить время.
Set-Top Box (STB) (ТВ-приставка)
Клиентское устройство (также может быть планшет, смартфон или Companion Device), которое воспроизводит медиапоток и вычисляет Hash Value в реальном времени.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной метод, выполняемый на стороне клиентского устройства для идентификации местоположения.

  1. Вычисление Hash Value для выбранной строки в последовательности субтитров медиапотока.
  2. Вычисление (определение) количества строк, предшествующих выбранной строке. Это количество основано на Order of Duplication (OD), ассоциированном с медиапотоком.
  3. Сопоставление (mapping) этого количества строк (т.е. использование этой последовательности) с данными субтитров для идентификации текущего местоположения в медиапотоке.

Claim 6 и 7 (Зависимые): Определяют механизм вычисления Hash Value.

  1. Генерируется хеш-строка путем конкатенации (соединения) выбранной строки и необходимого количества непосредственно предшествующих строк (определяемого на основе OD).
  2. Затем вычисляется Hash Value от этой объединенной хеш-строки.

Claim 10 и 11 (Зависимые): Описывают использование результата для определения времени POI.

  1. Определение времени в Point of Interest (POI) относительно Media Stream Time, полученного для выбранной строки субтитров.
  2. Время POI вычисляется путем добавления времени, прошедшего между моментом отображения строки субтитров и моментом POI, к Media Stream Time этой строки.

Где и как применяется

Этот патент не описывает традиционную архитектуру веб-поиска Google (Crawling, Indexing, Ranking и т.д.). Он относится к инфраструктуре медиасервисов (IPTV, VOD, потоковое видео).

Взаимодействие компонентов:

Система основана на взаимодействии между серверным компонентом (Closed Caption Data Server) и клиентским устройством (Set-Top Box или Companion Device).

Входные данные:

  • Сервер (Офлайн): Оригинальный файл субтитров (Closed Caption Data).
  • Клиент (Онлайн): Входящий медиапоток (с субтитрами); Значение Order of Duplication (полученное от сервера).
  • Сервер (Онлайн): Hash Value, вычисленный клиентом.

Выходные данные:

  • Сервер: Media Stream Time (абсолютная временная метка) в ответ на полученный Hash Value.

На что влияет

  • Конкретные типы контента: Влияет исключительно на видеоконтент (ТВ-программы, фильмы), который содержит данные субтитров.
  • Патент не влияет на веб-контент, статьи, изображения или другие элементы, оптимизируемые в рамках стандартного SEO.

Когда применяется

  • Условия работы: Алгоритм работает во время воспроизведения медиапотока клиентским устройством при наличии данных субтитров.
  • Триггеры активации: Активируется, когда необходимо определить точное абсолютное время в потоке (например, для привязки комментария или показа рекламы), особенно в сценариях, где временная шкала искажена (реклама, паузы, редактирование контента, trick play).

Пошаговый алгоритм

Процесс разделен на два этапа: предварительная обработка (офлайн) и обработка в реальном времени (онлайн).

Этап А: Предварительная обработка (Офлайн, на сервере)

  1. Сбор данных: Получение полного файла субтитров для оригинального контента.
  2. Анализ дубликатов: Анализ файла для выявления всех повторяющихся строк субтитров.
  3. Вычисление OD: Определение Order of Duplication (OD) — минимального количества последовательных строк (окна), необходимого для уникальной идентификации любой строки в потоке. Это многопроходный процесс (multi-pass method).
  4. Генерация хеш-таблицы: Для каждой строки субтитров выполняется конкатенация этой строки и количества предшествующих строк, определяемого OD (обычно OD-1). От полученной объединенной строки вычисляется Hash Value (например, CRC32).
  5. Сохранение: Создание и сохранение хеш-таблицы, которая связывает каждый уникальный Hash Value с его точным Media Stream Time.

Этап Б: Обработка в реальном времени (Онлайн, Клиент и Сервер)

  1. Воспроизведение и Запрос OD: Клиент начинает воспроизведение и запрашивает у сервера значение OD для данного контента.
  2. Буферизация: Получив OD, клиент буферизует декодированные строки субтитров. Размер буфера соответствует OD.
  3. Вычисление хеша: Клиент непрерывно вычисляет Hash Value для текущей последовательности в буфере (текущая строка + предшествующие строки, согласно OD).
  4. Отправка хеша: Клиент отправляет вычисленный Hash Value на сервер.
  5. Поиск соответствия: Сервер ищет полученный Hash Value в своей предварительно сгенерированной хеш-таблице.
  6. Возврат времени: Сервер находит и отправляет соответствующее Media Stream Time клиенту или зарегистрированному устройству-компаньону.
  7. Применение: Клиент использует это время для определения точного момента Point of Interest.

Какие данные и как использует

Данные на входе

Патент узкоспециализирован и использует ограниченный набор данных.

  • Контентные факторы: Единственным используемым фактором является текст субтитров (Caption Data Strings). Никакие другие аспекты контента данным алгоритмом не анализируются.
  • Временные факторы: Исходные таймкоды субтитров в оригинальном контенте (используются на этапе офлайн-обработки для создания Media Stream Time).

Другие факторы (ссылочные, технические, поведенческие и т.д.) в контексте этого патента не используются.

Какие метрики используются и как они считаются

  • Order of Duplication (OD): Метрика, определяющая размер окна последовательности субтитров. Вычисляется офлайн путем анализа повторений в файле субтитров.
  • Hash Value: Идентификатор последовательности. Вычисляется путем конкатенации строк субтитров в окне OD и применения хеш-функции (в патенте упоминается пример CRC32) к результату.
  • Media Stream Time: Абсолютная временная метка в оригинальном контенте.
  • Методы анализа текста: Используется базовый анализ последовательностей и конкатенация строк. Сложные методы NLP в данном патенте не применяются.

Выводы

  1. Инфраструктурное решение для медиа: Патент описывает чисто технический, инфраструктурный механизм для платформ доставки медиаконтента (ТВ, потоковое видео). Он не имеет прямого отношения к алгоритмам веб-поиска Google.
  2. Решение проблемы синхронизации: Основная цель – надежное определение абсолютного времени в медиапотоке, который мог быть изменен (отредактирован, прерван рекламой или паузой) по сравнению с оригиналом.
  3. Субтитры как идентификатор (Фингерпринтинг): Система использует текст субтитров как стабильную последовательность данных для идентификации времени, не полагаясь на таймеры воспроизведения или метаданные потока.
  4. Ключевая концепция OD: Введение метрики Order of Duplication позволяет системе адаптироваться к контенту с повторяющимися фразами, гарантируя уникальность идентификаторов (Hash Values) для каждого момента времени.
  5. Отсутствие прямых SEO-выводов: Практических выводов для SEO-специалистов, занимающихся оптимизацией веб-сайтов, этот патент не содержит.

Практика

ВАЖНО: Патент является инфраструктурным и не дает прямых практических выводов для стандартного SEO.

Best practices (это мы делаем)

В контексте стандартного SEO веб-сайтов рекомендации отсутствуют.

Стратегический инсайт для Video SEO (Гипотеза): Хотя патент описывает применение в ТВ-приставках, он демонстрирует техническую возможность использования транскриптов для точного фингерпринтинга и навигации по видео. Это подтверждает стратегическую важность предоставления точных, полных и синхронизированных субтитров для видео на платформах вроде YouTube, так как подобные механизмы могут использоваться для сегментации контента (например, Key Moments) и анализа содержания на уровне сцен.

Worst practices (это делать не надо)

Не применимо к стандартному SEO. Патент не направлен против каких-либо SEO-тактик.

Стратегическое значение

Стратегическое значение для веб-поиска и SEO минимально. Патент имеет значение для разработчиков в экосистеме Smart TV и сервисов потокового вещания, которым необходима точная привязка интерактивных элементов (реклама, комментарии) ко времени воспроизведения.

Практические примеры

Практических примеров применения данного патента в работе SEO-специалиста нет. Ниже приведен пример использования технологии по ее прямому назначению.

Сценарий (Не SEO): Синхронизация комментария во время трансляции с рекламой

  1. Контекст: Пользователь смотрит фильм. Провайдер вставил 5 минут рекламы.
  2. Точка интереса: Наступает сцена, которую пользователь хочет прокомментировать. В оригинальном фильме эта сцена происходит в 90:00. Из-за рекламы это происходит в 95:00 по часам пользователя.
  3. Работа системы: Устройство воспроизведения анализирует последние строки субтитров (в соответствии с Order of Duplication, например, OD=3). Оно вычисляет Hash Value этой последовательности.
  4. Синхронизация: Устройство отправляет хеш на сервер. Сервер игнорирует время пользователя (95:00), ищет хеш в таблице и определяет, что он соответствует Media Stream Time = 90:00.
  5. Результат: Комментарий пользователя сохраняется с точной привязкой ко времени 90:00 исходного фильма, несмотря на рекламу.

Вопросы и ответы

Влияет ли этот патент на ранжирование сайтов или видео в Google?

Нет, этот патент не имеет отношения к алгоритмам ранжирования. Он описывает инфраструктурную технологию для медиасервисов, решающую задачу точного определения времени в видеопотоке, который мог быть отредактирован или прерван рекламой.

Что такое "Order of Duplication" (Порядок дублирования) простыми словами?

Это количество последовательных фраз (строк субтитров), которое необходимо проанализировать, чтобы точно понять, в каком именно месте видео вы находитесь. Если какая-то фраза встречается часто, Order of Duplication определяет, сколько предыдущих фраз нужно учесть, чтобы отличить одно повторение от другого по контексту.

Зачем Google нужна эта технология синхронизации?

Точное знание времени (Media Stream Time) необходимо для интерактивных функций в медиасервисах. Например, чтобы привязать комментарий пользователя к конкретной сцене фильма или чтобы показать таргетированную рекламу, релевантную текущему моменту, даже если пользователь ставил видео на паузу или использовал перемотку (trick play).

Работает ли эта система, если в видео нет субтитров?

Нет. Согласно патенту, весь механизм основан на анализе Caption Data Strings (строк субтитров). Если данные субтитров отсутствуют в медиапотоке, система не сможет определить уникальную последовательность и вычислить точное время.

Влияет ли эта технология на SEO для YouTube (Video SEO)?

Прямого влияния на ранжирование нет. Однако патент демонстрирует важность субтитров для точной навигации по видео. Это косвенно подтверждает, что для Video SEO полезно предоставлять точные субтитры, так как подобные механизмы могут использоваться поисковыми системами для идентификации ключевых моментов (Key Moments) и сегментации видео.

Как система обрабатывает рекламу (Extraneous Content) или паузы при просмотре?

Система их игнорирует при определении абсолютного времени. Она фокусируется только на субтитрах оригинального контента. Когда воспроизведение возобновляется после перерыва, система считывает новые субтитры, вычисляет новый Hash Value и точно определяет новую позицию в оригинальном контенте, независимо от длительности паузы или рекламы.

Имеет ли значение качество субтитров для работы этой системы?

Да, имеет решающее значение. Система полагается на точное совпадение субтитров в реальном времени с предварительно обработанным файлом субтитров. Если субтитры отличаются (например, из-за ошибок распознавания речи), система не сможет вычислить правильный Hash Value и синхронизация не произойдет.

Требует ли эта система специальной разметки в видео?

Нет. Система не требует добавления специальных метаданных в медиапоток. Она полагается на стандартные данные субтитров (например, EIA-608 или CEA-708), которые уже присутствуют в большинстве профессиональных видеоматериалов.

Где происходит основная вычислительная нагрузка?

Основная нагрузка (предварительный анализ, расчет Order of Duplication и создание хеш-таблицы) происходит офлайн на сервере. Клиентское устройство выполняет менее ресурсоемкие задачи в реальном времени: буферизацию субтитров и расчет текущего хеш-значения (например, CRC32).

Использует ли этот патент сложные алгоритмы NLP?

Нет. Хотя система обрабатывает текст (субтитры), она не использует методы понимания естественного языка (NLP). Она применяет базовый анализ последовательностей и хеширование для идентификации и сопоставления, а не для интерпретации смысла текста.

Похожие патенты

Как Google использует структурные разрывы (смены сцен и тишину) для идентификации дубликатов видео и организации видео-поиска
Google использует систему фингерпринтинга видео, которая анализирует не пиксели, а временные метки структурных разрывов — смены сцен (shot boundaries) и моменты тишины (silent points). Это позволяет идентифицировать дубликаты или похожий контент даже при различиях в кодировании, разрешении или частоте кадров, что используется для удаления нарушений авторских прав и организации результатов видео-поиска.
  • US8611422B1
  • 2013-12-17
  • Мультимедиа

  • Индексация

Как Google использует трехэтапную систему фингерпринтинга (Content ID) для обнаружения дубликатов видео и аудио
Google использует масштабируемую систему для обнаружения полных или частичных совпадений в видео и аудио контенте. Система генерирует компактные цифровые отпечатки (фингерпринты) и применяет трехэтапный процесс: быстрый поиск кандидатов с помощью Locality-Sensitive Hashing (LSH), точная классификация с использованием машинного обучения и объединение результатов. Это позволяет идентифицировать контент даже при изменении качества или скорости воспроизведения.
  • US8238669B2
  • 2012-08-07
  • Мультимедиа

  • Индексация

Как Google идентифицирует аудио, видео и изображения, даже если они были изменены (растянуты, замедлены или ускорены)
Google использует технологию для создания цифровых отпечатков медиаконтента (аудио, изображений, видео), которые устойчивы к различным трансформациям, таким как изменение скорости воспроизведения или соотношения сторон. Система анализирует относительное расположение ключевых маркеров в сигнале (например, пиков в аудио или краев на изображении), а не их абсолютные значения. Это позволяет Google распознавать контент, даже если он был отредактирован или искажен.
  • US9143784B2
  • 2015-09-22
  • Мультимедиа

Как Google фильтрует статичные кадры и тишину из живых трансляций перед индексацией контента
Патент описывает инфраструктурный механизм для повышения эффективности систем сопоставления контента (таких как Content ID). Система в реальном времени анализирует входящие живые аудио- и видеопотоки, вычисляет цифровые отпечатки и сравнивает их внутри скользящего временного окна. Если отпечатки слишком похожи (например, статичное изображение или тишина), система помечает этот сегмент как неактивный и предотвращает его добавление в индекс, экономя ресурсы и снижая количество ложных срабатываний.
  • US8938089B1
  • 2015-01-20
  • Индексация

  • Мультимедиа

Как Google использует IDF-взвешивание для повышения точности распознавания контента в прямых трансляциях
Патент описывает технический метод повышения точности систем идентификации медиаконтента (например, Content ID) в прямых трансляциях. Google применяет классический метод IDF (Inverse Document Frequency) к цифровым отпечаткам видео. Это позволяет снизить вес часто встречающихся аудиовизуальных паттернов (шум, стандартные заставки) и повысить вес уникальных совпадений, улучшая качество распознавания.
  • US9208154B1
  • 2015-12-08
  • Мультимедиа

  • Индексация

Популярные патенты

Как Google автоматически определяет и отображает обратные ссылки (цитирования) между независимыми веб-страницами
Патент Google, описывающий фундаментальный механизм автоматического обнаружения ссылок между веб-страницами разных авторов. Когда система обнаруживает, что Страница B ссылается на Страницу A, она может автоматически встроить представление (например, ссылку) Страницы B в Страницу A при её показе пользователю. Это технология для построения и визуализации графа цитирований в Интернете.
  • US8032820B1
  • 2011-10-04
  • Ссылки

  • Индексация

  • Краулинг

Как Google использует историю запросов, сделанных на Картах, для ранжирования локальных результатов и рекламы
Google анализирует, что пользователи ищут, когда просматривают определенную географическую область на карте (Viewport). Эта агрегированная история запросов используется для определения популярности локальных бизнесов и контента в этом конкретном районе. Результаты, которые часто запрашивались в этой области, особенно недавно, получают значительное повышение в ранжировании.
  • US9129029B1
  • 2015-09-08
  • Local SEO

  • Поведенческие сигналы

  • Свежесть контента

Как Google использует семантические связи внутри контента для переранжирования и повышения разнообразия выдачи
Google использует метод для переоценки и переранжирования поисковой выдачи путем анализа семантических взаимодействий между терминами внутри документов. Система строит графы локальных и глобальных связей, а затем определяет взаимосвязи между самими документами на основе их семантического вклада (даже без гиперссылок). Это позволяет повысить разнообразие выдачи, особенно по неоднозначным запросам.
  • US7996379B1
  • 2011-08-09
  • Семантика и интент

  • Ссылки

  • SERP

Как Google персонализирует поисковые подсказки (Autocomplete) на основе недавно просмотренного медиаконтента
Google использует информацию о недавно потребленном пользователем медиаконтенте (видео, аудио, книги, игры) для персонализации поисковых подсказок. Система извлекает атрибуты (аспекты) из этого контента, такие как названия, имена актеров или артистов, и повышает в ранжировании те подсказки, которые соответствуют этим атрибутам. Влияние потребления медиа на подсказки зависит от времени, прошедшего с момента просмотра, типа контента и того, делился ли им пользователь.
  • US9268880B2
  • 2016-02-23
  • Персонализация

  • Семантика и интент

  • Мультимедиа

Как Google переносит авторитетность бренда и описательные термины между страницами одного сайта для улучшения ранжирования
Google использует механизмы для улучшения релевантности страниц путем переноса сигналов внутри сайта. Система распространяет "авторитетные" термины (например, бренд) с главной страницы на внутренние разделы и, наоборот, поднимает "высокоописательные" термины (например, адреса, категории, уникальные слова) с внутренних страниц на главную. Это позволяет ранжировать наиболее подходящую страницу сайта, даже если нужные ключевые слова на ней отсутствуют.
  • US7933890B2
  • 2011-04-26
  • Структура сайта

  • Техническое SEO

  • Индексация

Как Google использует историю физических перемещений пользователя для фильтрации и персонализации результатов поиска
Google может собирать и хранить историю физических перемещений пользователя (Location History). Патент описывает интерфейс, позволяющий пользователю осознанно включать свои прошлые местоположения (например, «места, где я был на прошлой неделе») в качестве фильтра для нового поискового запроса, чтобы сделать результаты более релевантными личному опыту.
  • US8874594B2
  • 2014-10-28
  • Персонализация

  • Поведенческие сигналы

  • Local SEO

Как Google использует историю чтения новостных сайтов для определения географических интересов пользователя и персонализации выдачи
Google может определять географические интересы пользователя, анализируя местоположение издателей новостных сайтов, которые он посещал. Эта информация (Geo Signal) используется для корректировки ранжирования будущих поисковых запросов, повышая результаты, релевантные этим интересам, даже если пользователь физически находится в другом месте.
  • US20130246381A1
  • 2013-09-19
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google алгоритмически определяет и верифицирует языковые версии страниц, анализируя ссылки, контент и частоту обновлений
Google использует систему для автоматической идентификации связанных версий контента (например, переводов). Система анализирует ссылки между страницами и ищет «индикаторы связи» (названия языков в анкорах или флаги). Обнаруженная связь затем верифицируется с помощью машинного перевода и сравнения контента, а также анализа частоты обновлений. Это позволяет Google показывать пользователю наиболее подходящую языковую или региональную версию в поиске.
  • US8892596B1
  • 2014-11-18
  • Мультиязычность

  • Ссылки

  • SERP

Как Google предсказывает намерения пользователя и выполняет поиск до ввода запроса (Predictive Search)
Google использует механизм для прогнозирования тем, интересующих пользователя в конкретный момент времени, основываясь на его истории и контексте. При обнаружении сигнала о намерении начать поиск (например, открытие страницы поиска), система проактивно выполняет запрос по предсказанной теме и мгновенно показывает результаты или перенаправляет пользователя на релевантный ресурс.
  • US8510285B1
  • 2013-08-13
  • Семантика и интент

  • Персонализация

  • Поведенческие сигналы

Как Google использует офлайн-сигналы и авторитетность сущностей для ранжирования контента
Google использует реальные, офлайн-сигналы авторитетности для ранжирования документов, у которых отсутствует естественная ссылочная структура (например, оцифрованные книги). Система оценивает коммерческий успех документа (данные о продажах, списки бестселлеров), репутацию связанных сущностей (автора и издателя) и может переносить ссылочный авторитет с официальных сайтов этих сущностей на сам документ для улучшения его позиций в поиске.
  • US8799107B1
  • 2014-08-05
  • EEAT и качество

  • SERP

  • Поведенческие сигналы

seohardcore