Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Google

    Как Google обнаруживает «мемы» и сатирические изображения (spoofy images) путем анализа визуальных различий для их понижения в поиске

    DETECTING MODIFIED IMAGES (Обнаружение модифицированных изображений)
    • US9183460B2
    • Google LLC
    • 2015-11-10
    • 2012-11-30
    2012 SERP Антиспам Мультимедиа Патенты Google

    Google использует систему для идентификации «spoofy» изображений (сатирических, юмористических или оскорбительных модификаций, таких как мемы). Система сравнивает пары визуально похожих изображений, игнорирует артефакты сжатия и изменения размера, и точно локализует области изменений контента. Если обнаружены манипуляции с лицами или добавлен текст, изображение классифицируется как «spoofy» и понижается в выдаче по общим информационным запросам.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает проблему идентификации изображений, которые были изменены для передачи сатирического, политического или оскорбительного сообщения — так называемых «spoofy» modifications (например, мемы, фотожабы). Проблема в том, что такие изображения часто не удовлетворяют информационную потребность пользователя, ищущего канонический контент. Патент прямо заявляет, что цель поисковой системы — понижать (demote) такие spoofy images в ранжировании, если нет сигналов, что пользователь ищет именно их. Изобретение позволяет надежно отличать существенные (spoofy) модификации от незначительных изменений (цветокоррекция, сжатие, изменение размера) на основе визуального анализа.

    Что запатентовано

    Запатентована система для обнаружения модификаций путем сравнения двух визуально похожих (near-duplicate) изображений. Ключевая особенность — способность системы точно локализовать области изменений (unmatched regions), отфильтровывая шум и артефакты сжатия. Затем система анализирует исключительно эти изолированные области (используя image mask) на предмет наличия специфических модификаций, в частности, изменений лиц (facial modifications) и текста (text modifications), для расчета меры модификации (modification measure).

    Как это работает

    Система работает следующим образом:

    • Сравнение пар: Идентифицируется пара визуально похожих изображений.
    • Извлечение признаков: Для обоих изображений извлекаются локальные визуальные признаки (local image feature descriptions).
    • Фильтрация различий: Система находит признаки, присутствующие на одном изображении, но отсутствующие на другом. Применяется фильтр (ratio threshold), который игнорирует разреженные несоответствия (шум/артефакты) и оставляет только плотные кластеры различий.
    • Локализация изменений: Подтвержденные несоответствующие признаки группируются в unmatched regions. Создается image mask, скрывающая все совпадающие части.
    • Анализ модификаций: Система анализирует данные только в пределах unmatched regions с помощью детекторов лиц или текста и рассчитывает modification measure.
    • Классификация: Если мера модификации превышает порог, изображение помечается как модифицированное (потенциально spoofy).

    Актуальность для SEO

    Высокая. В эпоху генеративного ИИ, дипфейков и вирусных мемов способность Google отличать оригинальные изображения от модифицированных критически важна для обеспечения достоверности информации в Image Search и основном поиске. Описанные методы являются фундаментальными для систем верификации и классификации визуального контента, особенно для борьбы с манипуляциями.

    Важность для SEO

    Патент имеет высокое значение для SEO, особенно для стратегий, связанных с Image Search и управлением репутацией (ORM). Он описывает конкретный механизм, который Google использует для понижения сатирического или модифицированного контента при общих запросах. Это подчеркивает важность визуальной аутентичности и объясняет, почему мемы редко ранжируются по запросам, связанным с изображенными на них объектами или людьми, если интент пользователя информационный.

    Детальный разбор

    Термины и определения

    Spoofy Image / Spoofy Modification
    Изображение, которое было изменено для передачи сатирического, политического, юмористического или оскорбительного сообщения. Примеры: мемы, фотожабы. Не включает модификации качества (цвет, контраст).
    Local Image Feature Descriptions (Описания локальных признаков изображения)
    Данные, описывающие визуальные характеристики в определенной области изображения (например, края, углы, текстуры, SIFT) и их местоположение.
    Unmatched Local Image Features (Несоответствующие локальные признаки)
    Локальные признаки, обнаруженные на одном изображении, но не имеющие соответствия на другом визуально похожем изображении, прошедшие фильтрацию шумов.
    Unmatched Region (Область несоответствия)
    Область изображения, содержащая кластер Unmatched Local Image Features. Соответствует локации, где произошла модификация контента.
    Modification Measure (Мера модификации)
    Числовая оценка, рассчитываемая на основе анализа данных строго внутри Unmatched Region. Определяет степень и тип различия (например, изменение лица или текста).
    Image Mask (Маска изображения)
    Инструмент, созданный на основе Unmatched Regions. Маска скрывает совпадающие части изображений, позволяя системе анализировать только области различий.
    Ratio Threshold (Порог соотношения)
    Порог, используемый для фильтрации шумов. Определяет минимальное соотношение несоответствующих признаков к соответствующим в локальной области, необходимое для подтверждения реального изменения, а не артефакта сжатия.

    Ключевые утверждения (Анализ Claims)

    Claim 1 (Независимый пункт): Описывает основной метод обнаружения модификаций.

    1. Для первого и второго изображений определяются наборы local image feature descriptions.
    2. Определяются unmatched regions. Это делается путем выявления unmatched local image features (признаков без пары) и последующего формирования областей на их основе.
    3. Для каждой unmatched region рассчитывается modification measure на основе данных изображения в этой области на обеих картинках.
    4. Система определяет, что второе изображение является модификацией первого, если одна из modification measures превышает порог.

    Claim 3 (Зависимый): Детализирует критически важный механизм фильтрации шумов (устойчивость к артефактам сжатия).

    1. Идентифицируются «кандидаты» в несоответствующие признаки.
    2. Для каждого кандидата в локальной подобласти рассчитывается соотношение (ratio) между несоответствующими и соответствующими признаками.
    3. Кандидат признается истинным unmatched local image feature, только если это соотношение превышает ratio threshold (т.е. плотность различий высока).

    Claim 4 (Зависимый): Описывает формирование unmatched regions.

    1. Истинные unmatched local image features группируются в кластеры (feature clusters) на основе близости.
    2. Для каждого кластера определяется граница (boundary), которая задает unmatched region.

    Claim 5 (Зависимый): Уточняет процесс вычисления modification measure с помощью маскирования.

    1. Генерируется image mask, которая скрывает все данные за пределами unmatched regions.
    2. Маска применяется к обоим изображениям.
    3. Modification measure рассчитывается исключительно на основе оставшихся (немаскированных) данных.

    Claims 8 и 9 (Зависимые): Определяют конкретные типы modification measures, указывающие на spoofy контент.

    • Claim 8: Мера модификации основана на различиях в обнаруженных лицевых признаках (facial features).
    • Claim 9: Мера модификации основана на различиях в обнаруженных текстовых признаках (text features).

    Где и как применяется

    Изобретение применяется для анализа и классификации визуального контента с целью улучшения качества поисковой выдачи.

    INDEXING – Индексирование и извлечение признаков
    Основная работа алгоритма происходит на этом этапе. Система (Modification Detection Subsystem) выполняет:

    1. Извлечение признаков: Расчет локальных и глобальных признаков изображений.
    2. Обнаружение дубликатов: Идентификация пар визуально похожих (near-duplicate) изображений на основе visual similarity score.
    3. Анализ модификаций: Для этих пар запускается описанный алгоритм (сравнение признаков, локализация различий, расчет modification measure).
    4. Классификация и Аннотирование: Если модификация обнаружена (особенно лица или текста), изображение может быть классифицировано как spoofy image. Этот сигнал сохраняется в индексе.

    RANKING / RERANKING – Ранжирование и Переранжирование
    Результаты анализа используются на этапе ранжирования (особенно в Image Search). Патент явно заявляет: «поисковая система будет понижать (demote) spoofy images при ранжировании изображений в ответ на запрос», если только пользователь (определяется на этапе Query Understanding) явно не ищет такой контент.

    Входные данные:

    • Пара визуально похожих изображений.
    • Наборы local image feature descriptions для обоих изображений.

    Выходные данные:

    • Modification measure, указывающая на степень и тип различия в локализованных областях.
    • Классификационный ярлык (например, spoofy image), связанный с изображением в индексе.

    На что влияет

    • Конкретные типы контента: Мемы, сатирические коллажи, изображения с добавленным текстом, изображения с измененными лицами (включая потенциальные дипфейки).
    • Специфические запросы: Влияет на информационные и репутационные запросы (имена людей, названия брендов, продуктов), где система стремится показать аутентичные изображения, а не мемы.
    • Конкретные ниши или тематики: Политика, знаменитости, новости — ниши, где часто встречаются сатирические модификации и дезинформация.

    Когда применяется

    • Триггеры активации: Обнаружение нового изображения, которое является визуально похожим (near-duplicate) на одно или несколько существующих изображений в индексе (удовлетворяет threshold match of visual similarity).
    • Условия работы: Алгоритм применяется для сравнения пары изображений в процессе индексации для определения их оригинальности и выявления модификаций.

    Пошаговый алгоритм

    Этап 1: Подготовка и Сравнение Признаков

    1. Идентификация пары: Получение доступа к первому и второму изображениям, идентифицированным как визуально похожие.
    2. Извлечение признаков: Определение наборов local image feature descriptions для каждого изображения.
    3. Идентификация кандидатов: Определение candidate unmatched local image features — признаков, у которых нет соответствия на другом изображении.

    Этап 2: Фильтрация и Локализация (Борьба с шумом)

    1. Анализ плотности: Для каждого кандидата анализируется его окружение (подобласть). Рассчитывается соотношение (ratio) несоответствующих и соответствующих признаков.
    2. Фильтрация по порогу: Идентификация истинных unmatched local image features — тех, у кого соотношение превышает ratio threshold. Остальные отбрасываются как шум.
    3. Кластеризация: Группировка истинных несоответствующих признаков на основе их близости.
    4. Определение областей: Формирование unmatched region для каждой группы путем определения границы.
    5. Валидация областей (Опционально): Удаление областей, которые меньше минимального размера (minimum size threshold) или имеют слишком высокую корреляцию цветовых гистограмм (correlation threshold).

    Этап 3: Анализ Модификации

    1. Генерация маски: Создание image mask на основе оставшихся unmatched regions.
    2. Применение маски: Маскирование данных на обоих изображениях за пределами unmatched regions.
    3. Расчет меры модификации: Определение modification measure для каждой области, используя только оставшиеся данные. Это включает запуск детекторов лиц или текста.
    4. Принятие решения: Определение того, что второе изображение является модификацией первого, если modification measure достигает порогового значения.

    Какие данные и как использует

    Данные на входе

    Патент фокусируется на анализе визуальных данных.

    • Мультимедиа факторы (Визуальные данные):
      • Пиксельные данные изображения (Image Data): Используются для извлечения признаков и финального анализа внутри unmatched regions.
      • Local Image Features: Ключевые данные для сравнения. Упоминаются примеры: края (edge detection), углы (corner detection), блобы (blob detection), SIFT (scale invariant feature transforms).
    • Структурные факторы (Визуальные):
      • Color Histograms (Цветовые гистограммы): Используются как для определения общей визуальной схожести, так и для валидации unmatched regions.
    • Контентные факторы (Объекты на изображении): Данные, извлеченные специализированными детекторами внутри локализованных областей: признаки лиц (facial features) и признаки текста (text features).

    Примечание: В патенте упоминается, что поведенческие факторы (selection rate, hover rate) могут использоваться поисковой системой для дополнительной классификации изображений как spoofy (например, много наведений, мало кликов), но эти данные не являются частью основного изобретения по обнаружению модификаций.

    Какие метрики используются и как они считаются

    • Visual Similarity Score (Оценка визуальной схожести): Метрика для идентификации пар похожих изображений (предварительный этап).
    • Ratio (Соотношение несоответствующих/соответствующих признаков): Рассчитывается в локальных подобластях для фильтрации шума. Используется ratio threshold.
    • Modification Measure (Мера модификации): Ключевая метрика. Рассчитывается путем сравнения результатов работы детекторов в unmatched regions. Патент приводит примеры формул:
      • Для лиц: F = |f(I1) — f(I2)| (упрощенно), где f(I) — функция, квантифицирующая признаки обнаруженных лиц.
      • Для текста: T = |t(I1) — t(I2)| (упрощенно), где t(I) — функция, квантифицирующая признаки обнаруженного текста.
    • Color Histogram Correlation (Корреляция цветовых гистограмм): Используется для валидации unmatched regions (Claim 7).

    Выводы

    1. Целенаправленное понижение «Spoofy» контента: Основная цель патента — автоматическое выявление сатирических или манипулятивных модификаций (spoofy images), чтобы поисковая система могла их понизить (demote) в выдаче, если они не соответствуют интенту пользователя.
    2. Устойчивость к шуму и глобальным изменениям: Система разработана так, чтобы игнорировать изменения размера, обрезку, цветокоррекцию и артефакты сжатия. Это достигается за счет использования локальных признаков и многоступенчатой фильтрации шума (ratio threshold).
    3. Локализованный анализ для точности: Ключевая особенность — использование Image Mask для изоляции и анализа только тех областей, которые были изменены (unmatched regions). Это повышает точность и эффективность обнаружения.
    4. Текст и лица как ключевые индикаторы: Патент явно выделяет модификацию лиц и добавление/удаление текста как сильные признаки spoofy modifications.
    5. Аутентичность как фактор ранжирования: Для ранжирования по информационным запросам визуальная аутентичность критически важна. Система предпочитает канонические изображения модификациям.

    Практика

    Best practices (это мы делаем)

    • Приоритет оригинального визуального контента: Создавайте и публикуйте оригинальные, аутентичные изображения. Система предпочитает оригиналы модификациям при общих запросах. Если вы являетесь первоисточником, это дает преимущество в Image Search.
    • Четкое позиционирование модификаций (мемов): Если вы создаете сатиру или мемы, оптимизируйте метаданные и окружающий текст под соответствующие интенты (например, «мем про [X]», «смешное фото [Y]»). Не ожидайте ранжирования этого контента по общим информационным запросам (например, «[X]» или «[Y]»).
    • Осторожное использование текста на изображениях: Добавление текста (логотипы, водяные знаки, промо-текст) является модификацией, которую система обнаружит с помощью Text Modification Detection. Хотя это не всегда spoofy, система может предпочесть более чистый оригинал в выдаче Image Search.
    • Оптимизация подлинности в чувствительных нишах: Для новостных сайтов и ресурсов в YMYL-тематиках критически важно поддерживать подлинность визуального контента, так как система активно ищет манипуляции для повышения достоверности выдачи.

    Worst practices (это делать не надо)

    • Незначительные модификации для уникализации: Практика брать чужие изображения и незначительно их модифицировать (добавлять фильтр, логотип, текст) неэффективна для «уникализации». Система идентифицирует это как модификацию оригинала.
    • Использование мемов для иллюстрации серьезных тем: Размещение сатирических изображений (особенно с измененными лицами или добавленным текстом) на страницах, оптимизированных под информационные запросы, создает риск классификации контента как spoofy и его понижения.
    • Манипуляции с изображениями для кликбейта или дезинформации: Изменение лиц или добавление вводящего в заблуждение текста на фотографиях. Система активно борется с этим, классифицируя такие действия как spoofy и понижая их в выдаче.

    Стратегическое значение

    Патент подтверждает стратегию Google по сегментации интентов и обеспечению достоверности в поиске по изображениям. Система не просто ищет релевантные картинки, она стремится отделить аутентичный контент от производного (мемы, сатира, фейки). Для долгосрочной SEO-стратегии это подчеркивает важность инвестиций в создание уникального и качественного визуального контента. Манипулятивные техники, связанные с изменением смысла изображения, будут пессимизироваться.

    Практические примеры

    Сценарий 1: Ранжирование фотографии политика (Информационный интент)

    1. Ситуация: Новостное агентство публикует официальное фото политика (Image A). Сатирический блог берет это фото, меняет выражение лица и добавляет смешную подпись (Image B — Мем).
    2. Обработка Google: Система определяет Image A и Image B как near-duplicates. Анализ выявляет unmatched regions в области лица и текста. Детекторы фиксируют значительные изменения (Modification Measure высока). Image B классифицируется как Spoofy Image.
    3. Результат: При поиске по имени политика (информационный интент) Google активно понижает (demote) мем (Image B), отдавая предпочтение оригиналу (Image A).

    Сценарий 2: Использование фото товара в E-commerce

    1. Ситуация: Производитель предоставляет официальное фото товара (Image A). Интернет-магазин добавляет на него ярлык «Скидка 20%» (Image B).
    2. Обработка Google: Система сравнивает Image A и Image B. Обнаруживается unmatched region (ярлык). Применяется детектор текста, modification measure высока. Изображение помечается как модифицированное.
    3. Результат: По запросу «[Модель товара] фото» в Image Search выше может ранжироваться оригинальное фото (Image A), так как система может предпочесть более чистую версию изображения модифицированной.

    Вопросы и ответы

    Что такое «Spoofy Image» согласно патенту?

    Это изображение, которое было модифицировано для передачи сатирического, политического, юмористического или оскорбительного сообщения. В просторечии это соответствует мемам, фотожабам или сатирическим коллажам. Ключевой момент — изменение исходного смысла или контекста изображения.

    Будет ли Google понижать все модифицированные изображения?

    Нет. Система разработана так, чтобы быть устойчивой к обычным изменениям: сжатию, изменению размера, обрезке (cropping), масштабированию и настройке цвета/освещения. Понижение (demote) применяется в первую очередь к spoofy modifications, то есть изменениям, которые меняют содержание, например, модификации лиц или добавление текста.

    Как система отличает артефакты сжатия от реальных модификаций?

    Система использует анализ плотности различий (Ratio Threshold). Артефакты сжатия обычно вызывают спорадические, разрозненные несоответствия признаков (низкое Ratio). Реальная модификация (например, добавление текста) вызывает высокую плотность несоответствий в локальной области (высокое Ratio). Система игнорирует области с низкой плотностью различий.

    Почему система фокусируется именно на лицах и тексте?

    Патент выделяет детекторы лиц (Claim 8) и текста (Claim 9) как основные примеры расчета Modification Measure. Модификация лиц (например, изменение выражения лица) и добавление текста (например, подписи в мемах) являются наиболее распространенными способами создания spoofy images для передачи сатиры или оскорблений.

    Как этот патент влияет на SEO для сайтов с мемами и развлекательным контентом?

    Влияние значительное. Изображения с таких сайтов будут автоматически классифицироваться как spoofy и понижаться по общим информационным запросам. Например, мем про кота не будет хорошо ранжироваться по запросу «порода кошек». Стратегия должна заключаться в оптимизации под специфические запросы, связанные с юмором или конкретными мемами.

    Что такое «Image Mask» и зачем она нужна?

    Image Mask создается после того, как система определила области, в которых два изображения различаются (unmatched regions). Маска скрывает все остальные (совпадающие) части изображения. Это позволяет финальному анализу (например, детектору лиц или текста) работать только с измененными данными, повышая точность и эффективность обнаружения модификаций.

    Может ли эта система использоваться для обнаружения Deepfakes?

    Да. Механизм универсален и обнаруживает любые локальные визуальные различия. Если AI изменил лицо на фотографии (deepfake), система обнаружит несовпадающие локальные признаки в области лица, создаст Unmatched Region и активирует Facial Modification Detection. Это делает патент очень актуальным для борьбы с deepfakes.

    Является ли добавление водяного знака или логотипа «spoofy» модификацией?

    Согласно патенту, добавление текста/графики является детектируемой модификацией. Технически это не spoofy (если это не сатира), но это изменение контента. Если логотип или водяной знак слишком навязчивы, это может негативно повлиять на ранжирование изображения, так как система может предпочесть более чистый оригинал.

    Как этот патент связан с E-E-A-T и достоверностью контента?

    Он напрямую поддерживает принципы достоверности (Trust). Использование канонических, немодифицированных изображений повышает достоверность контента в глазах поисковой системы. Публикация сатирических или вводящих в заблуждение изображений в контексте серьезных тем (YMYL) может негативно сказаться на оценке E-E-A-T ресурса.

    Использует ли Google поведенческие факторы для обнаружения «spoofy» изображений?

    Хотя основное изобретение основано на визуальном анализе, в патенте упоминается, что поведенческие данные могут использоваться для дополнительной верификации. Например, изображение, которое часто просматривают (высокий hover rate), но редко кликают (низкий selection rate) по общим запросам, может быть дополнительно классифицировано как spoofy.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.