Искусственный интеллект распространился повсюду, и на данный момент можно с уверенностью сказать, что он формирует все вокруг нас. Крупные технологические бренды, такие как Google, Meta и OpenAI, расширяют границы инструментов и помощников на базе искусственного интеллекта, открывая двери для бесконечных вариантов использования и возможностей. Теперь вы можете использовать инструменты искусственного интеллекта для малого бизнеса, чтобы увеличивать доходы, создавать странные гаджеты на базе искусственного интеллекта и даже создавать дипфейковые видео или фотографии для безобидного развлечения.
Несколько лет назад инструменты искусственного интеллекта для обработки изображений были всего лишь диковинкой, которая с трудом позволяла создавать убедительные дипфейки. Сегодня ИИ продвинулся до такой степени, что вы можете использовать инструменты манипуляции для создания высококачественных сложных дипфейков, которые практически невозможно обнаружить. Несмотря на то, что у этой технологии есть некоторые положительные стороны, к сожалению, она также попала в руки людей со злыми намерениями. Подумайте о преступниках, которые могут использовать дипфейки для распространения дезинформации, заставить замолчать журналистов, унизить популярных знаменитостей и обмануть менее технически подкованных людей. Хуже того, люди злоупотребляют дипфейками до такой степени, что сфабрикованные и подделанные с помощью ИИ доказательства попадают в залы судов.
Зная об этих рисках, очень важно уметь отличать реальное изображение от изображения, созданного ИИ. Один из лучших способов определить, создано ли изображение искусственным интеллектом или реальное, — использовать веб-инструменты, специально созданные для этой задачи. К ним относятся инструменты обнаружения дипфейков, такие как Attestiv Video Platform, Sensity AI, Reality Defender и Deepware Scanner.
Существуют инструменты, которые помогут обнаружить дипфейки
Эти инструменты используют алгоритмы машинного обучения для анализа видео, изображений и аудио на наличие тонких несоответствий, таких как несовпадающее освещение, выцветание цветов и несоответствие пикселей. Вы даже можете использовать такие инструменты, как детектор SynthID, который обнаруживает наличие водяного знака, встроенного в контент, созданный службами Google AI, такими как Veo, Imagen, Lyria и Gemini.
Как бы удивительно ни звучали эти инструменты, у них есть довольно серьезные недостатки. Они могут давать ложные срабатывания или даже утверждать, что изображение подлинное, хотя на самом деле это дипфейк. В первую очередь это связано с такими факторами, как качество видео, отсутствие выражений лица и проблемы с обучающими данными. Постоянное развитие генераторов изображений искусственного интеллекта и огромный объем синтетического контента в Интернете также могут повлиять на реальную производительность детекторов дипфейков.
Учитывая, что при обнаружении инструментов дипфейков это может быть как удача, так и промах, в случае сомнений инструменты Google могут помочь вам в расследовании. Вы можете использовать поиск Google, чтобы отследить происхождение видео или изображения, или Google Fact Check Explorer, чтобы подтвердить достоверность изображения в Интернете. Альтернативно вы можете попробовать визуальный поиск Bing. Это старый добрый инструмент обратного поиска, который позволяет вам перевернуть изображение, чтобы отследить исходный источник, найти похожие изображения, сопоставить продукты и получить доступ к другой соответствующей информации.
Будьте в поисках этих подсказок о дипфейках
Поскольку каждый год появляются более совершенные инструменты обнаружения, компании, создающие инструменты для создания дипфейков, также находят более совершенные способы создания дипфейков, которые ускользают от обнаружения. Зная это, в следующий раз, когда вы увидите видео или изображение и будете беспокоиться, что оно было создано искусственным интеллектом, вам захочется поискать крошечные движения тела, которые мы обычно совершаем неосознанно. Когда дело доходит до видео, вы можете заметить небольшие несоответствия в моргании. Здоровый взрослый человек должен моргать в среднем от 15 до 20 раз в минуту. Итак, если вы смотрите видео и замечаете, что они слишком часто моргают, вероятно, это дипфейк.
Другой способ определить, создан ли видео или аудиофайл генеративным ИИ, — это искать контрольные признаки, такие как несоответствие между речью и движением губ, визуальные несоответствия и аномалии лица, такие как искривленные зубы. Кроме того, если вы подозреваете видеозвонок, вы можете определить, фальшивый ли он, попросив звонящего сделать сложный жест рукой или просто повернуть голову. Даже лучшие приложения-генераторы изображений с искусственным интеллектом не могут справиться с такими мелкими деталями, и если это дипфейк, лицо может деформироваться, уши растянуться, а очки и украшения могут стать нестабильными.