После ракетного обстрела Израиля Ираном в начале недели поддельные видеоролики с искусственным интеллектом начали распространяться как неприятный слух, показывая, как Тель-Авив и аэропорт Бен-Гурион якобы подвергаются ударам.
Сцены были очень реалистичными, и хотя удары были настоящими, видео, распространившиеся по всему интернету, таковыми не являлись, как утверждают эксперты.
Таково состояние войны в 2025 году, где глубокие подделки, созданные ИИ, ложь, сгенерированная чатботом, и кадры из видеоигр используются для манипулирования общественным восприятием с беспрецедентной частотой и проникновением в социальные сети.
На этой неделе OpenAI и Meta раскрыли подробности о постоянных злонамеренных кампаниях, проводимых субъектами, связанными с Китаем, Израилем, Россией и Ираном, которые, по их мнению, используют свои сервисы для распространения дезинформации и подрыва политики в США и других странах.
В своем последнем квартальном отчете об угрозах, опубликованном в среду, Meta подчеркнула, что генеративный ИИ все еще легко обнаружить в таких кампаниях.
"Пока что мы не видели новых тактик, основанных на GenAI, которые могли бы помешать нашей способности нарушать...
В воскресенье мир ожидал ответа Ирана после того, как США атаковали ключевые иранские ядерные объекты, присоединившись к Израилю в самой значительной военной акции Запада против Исламской Республики со времен революции 1979 года, и миллионы людей обратились к социальным сетям, чтобы узнать последние новости. es.
Вместо того чтобы узнать правду, многие оказались втянуты в новый тип кампании по дезинформации.
Иранские кампании в TikTok, наблюдавшиеся в течение нескольких дней сразу после израильских ударов по Ирану в 2025 году, использовали пять основных категорий контента, генерируемого искусственным интеллектом.
В одном из видеороликов, получивших широкое распространение, обычный израильский район внезапно превращается в зону боевых действий в формате «до и после».
Другая партия подделок показывает, как главный аэропорт Тель-Авива подвергается ракетному обстрелу.
В одном из роликов показан самолет израильской авиакомпании El Al, охваченный пламенем. Несмотря на то, что эти кадры полностью сгенерированы компьютером, они достаточно реалистичны, чтобы обмануть людей, не разбирающихся в технике.
Изысканность поражает, отражая огромный скачок в качестве видеогенераторов, продемонстрированный в последние месяцы: Kling 2.1 Master, Seedream и Google Veo3 генерируют реалистичные сцены с возможностью преобразования изображения в видео - что позволяет создавать видео на основе реальной картинки вместо того, чтобы создавать сцены с нуля.
Даже программное обеспечение с открытым исходным кодом, такое как Wan 2.1, популярное среди любителей, использует дополнения, которые создают суперреалистичное видео и улучшают качество, обходя ограничения на контент, наложенные крупными технологическими компаниями.
Эти политические ролики набирают миллионы просмотров на TikTok, а Instagram, Facebook и X продолжают их безостановочно продвигать.
Например, опубликованное сегодня видео, в котором преувеличиваются нападения Ирана на американские базы, было просмотрено более 3 миллионов раз на X, в то время как фотография, изображающая Кандана Си Оуэнс и Такер Карлсон - журналисты, выступающие против участия Трампа в войне, - как мусульмане, набрали более 371 тысячи просмотров за три дня. Telegram-каналы создают эти фейки быстрее, чем платформы успевают их закрывать.
Музыканту из Корнелиуса, штат Северная Каролина, предъявлены обвинения в мошенничестве с использованием проводов, мошенничестве с использованием проводов и заговоре с целью отмывания денег в связи с многолетней схемой манипулирования музыкальными стриминговыми платформами и получения более 10 миллионов долларов гонораров за песни, сгенерированные искусственным интеллектом.
С 2017 по 2024 год 52-летний Майкл Смит якобы использовал искусственный интеллект для создания песен и автоматических ботов для увеличения числа слушателей на музыкальных стриминговых платформах. Хотя используемые сервисы не разглашаются, такие крупные игроки, как Spotif...
Конечно, партизаны с обеих сторон и, вероятно, агенты каждой страны. Пропагандистская война выходит далеко за пределы Ближнего Востока.
Российская сеть «Правда» заражает ИИ-помощников, включая ChatGPT-4 и чатбота Meta, превращая их в рупоры Кремля.
По оценкам NewsGuard, проекта, занимающегося разоблачением дезинформации в американском дискурсе, ежегодный объем публикаций сети «Правда» составляет не менее 3,6 миллиона пророссийских статей.
В прошлом году сеть выпустила 3,6 миллиона материалов в 49 странах, используя 150 веб-адресов на разных языках.
Созданные искусственным интеллектом видеоролики и фальшивые личности заполонили социальные сети от Тель-Авива до Тегерана, превратив их в цифровое поле битвы обмана тирование.
Согласно исследованию, российская сеть использует комплексную стратегию для проникновения в обучающие данные чатботов ИИ и намеренной публикации ложных утверждений.
Результат? Каждый крупный чатбот - хотя в исследовании не называются имена - повторял пропаганду «Правды».
Кампании на Ближнем Востоке демонстрируют, что они довели это до совершенства, подстраивая контент под язык.
«Материалы на арабском и фарси часто способствуют региональной солидарности и антиизраильским настроениям; видео на иврите сосредоточены на психологическом давлении внутри Израиля», - говорится в отчете Международного института по борьбе с терроризмом (ICT) Израиля.
Другая пропагандистская тактика использует ИИ-контент для высмеивания израильских чиновников и выставления главного духовного лица Ирана в качестве героя.
В этих видео, которые явно сгенерированы ИИ и не предназначены для того, чтобы выглядеть реалистично, часто изображаются сцены с аятоллой Али Хаменеи рядом с премьер-министром Израиля Биньямином Нетаньяху и президентом США Дональдом Трампом, представляя сценарии, в которых Хаменеи символически унижает или доминирует над одним или обоими деятелями.
Другие deepfakes сочетают фальшивые видео с фальшивыми голосами для усиления различных политических целей.
Одно видео, собравшее за неделю более 18 миллионов просмотров, содержит реалистичные кадры иранского военного парада с сотнями ракет и голосом Хаменеи, угрожающего Америке возмездием.
Иранские государственные средства массовой информации тоже не остались в стороне. Иранское телевидение показало старые кадры лесных пожаров в Чили и выдало их за пожары в израильских городах.
Другие Аккаунты, выдающие себя за новостные каналы, использовали фальшивые видеоролики ИИ о мобилизации Ираном своих ракет.
С другой стороны, Израиль решил запретить СМИ, чтобы контролировать геополитический нарратив, что, по мнению экспертов, приводит к еще большей дезинформации и "дегуманизации".
Хотя Израиль уделяет особое внимание использованию ИИ в различных целях - в основном для военных стратегий, а не для политической пропаганды, - были случаи, когда субъекты использовали генеративный ИИ в этих целях, высмеивая нынешних и прошлых аятолл и распространяя их политические послания через созданные ИИ видео, а также создавая сети ИИ-ботов для распространения контента в социальных сетях.
Хаменеи прощается со своими близкими - эксклюзив! pic.twitter.com/tz0eFxUhNo
- Joshua of Jerusalem (@IL_US_Patriot) 17 ноября 2024 г.
Уже существуют инструменты, использующие передовые технологии для преобразования одной фотографии и аудиоклипа в гиперреалистичные видеоролики с синтетическими личностями.
По данным KBV Research, объем рынка виртуальных авторитетов к 2030 году может достичь 37,8 миллиарда долларов. Это означает, что ваш любимый персонаж в социальных сетях, видео, на котором ваш политический лидер говорит что-то компрометирующее, или высокореалистичный выпуск новостей, показывающий сцены разрушительного теракта, могут даже не существовать.
Благодаря генеративному искусственному интеллекту поле боя стало более распространилась за пределы границ и бункеров на каждый смартфон, каждую социальную ленту и каждый разговор.
Если даже президент самой могущественной страны в мире может использовать эту технологию без последствий, легко понять, что в этой новой войне все мы - комбатанты, и все мы - жертвы.
Под редакцией Себастьяна Синклера и Джоша Квиттнера
Эксперты-криминалисты утверждают, что самые просматриваемые видео были глубокой подделкой, причем некоторые из них были созданы с использованием новой видеомодели Google.
Как государственные субъекты, так и сетевые партизаны наводняют социальные сети синтетическими личностями и манипулируемым контентом.