Новости криптовалюты: актуальная информация о биткойне, блокчейне и других цифровых активах. Аналитика, прогнозы, тренды и события криптовалютного мира в одном месте.

Могут ли ИИ-боты украсть вашу криптовалюту? Рост цифровых воров

AI-боты и крипто-кибератаки

AI-боты — это самообучающееся программное обеспечение, которое автоматизирует и постоянно совершенствует крипто-кибератаки, делая их более опасными, чем традиционные методы взлома.

AI-боты: Новая эра крипто-киберпреступности

В основе современной киберпреступности, основанной на искусственном интеллекте, лежат AI-боты — самообучающиеся программные продукты, предназначенные для обработки огромных объемов данных, принятия независимых решений и выполнения сложных задач без вмешательства человека. Хотя эти боты кардинально изменили такие отрасли, как финансы, здравоохранение и обслуживание клиентов, они также стали оружием киберпреступников, особенно в мире криптовалют.

В отличие от традиционных методов взлома, которые требуют ручного труда и технических знаний, ИИ-боты могут полностью автоматизировать атаки, адаптироваться к новым мерам безопасности криптовалют и даже совершенствовать свои тактики с течением времени. Это делает их гораздо более эффективными, чем хакеры-люди, которые ограничены временем, ресурсами и подверженными ошибкам процессами.

Самая большая угроза, которую представляют киберпреступления с использованием ИИ, — это их масштаб. Один хакер, пытающийся взломать криптовалютную биржу или обманом заставить пользователей передать свои приватные ключи, может сделать только ограниченное количество действий. Однако ИИ-боты могут запускать тысячи атак одновременно, совершенствуя свои методы по ходу дела.

Эта способность автоматизировать, адаптироваться и атаковать в больших масштабах привела к всплеску криптовалютного мошенничества с использованием ИИ, что делает предотвращение криптовалютного мошенничества более важным, чем когда-либо.

Примеры крипто-мошенничества с использованием ИИ

Взлом аккаунта X Энди Эйри

В октябре 2024 года аккаунт X Энди Эйри, разработчика ИИ-бота Truth Terminal, был взломан хакерами. Злоумышленники использовали аккаунт Эйри nt для продвижения мошеннической мемкойна под названием Infinite Backrooms (IB). В результате этой злонамеренной кампании рыночная капитализация IB быстро выросла, достигнув 25 миллионов долларов. В течение 45 минут злоумышленники ликвидировали свои активы, получив более 600 000 долларов.

Фишинговые атаки с использованием ИИ

Фишинговые атаки не являются чем-то новым в криптовалюте, но искусственный интеллект превратил их в гораздо более серьезную угрозу. Вместо неаккуратных писем, полных ошибок, современные боты с искусственным интеллектом создают персонализированные сообщения, которые выглядят точно так же, как настоящие сообщения от таких платформ, как Coinbase или MetaMask. Они собирают личную информацию из утечек баз данных, социальных сетей и даже записей блокчейна, что делает их мошенничество чрезвычайно убедительным.

Например, в начале 2024 года фишинговая атака с использованием ИИ была направлена на пользователей Coinbase путем отправки электронных писем с поддельными предупреждениями о безопасности криптовалюты, в результате чего пользователи были обмануты на сумму почти 65 миллионов долларов.

Кроме того, после запуска OpenAI GPT-4 мошенники создали поддельный сайт OpenAI token airdrop, чтобы воспользоваться ажиотажем. Они рассылали электронные письма и X-посты, приманивая пользователей «заявить» о поддельном токене — фишинговая страница была очень похожа на настоящий сайт OpenAI. Жертвы, которые клюнули на приманку и подключили свои кошельки, автоматически лишились всех своих криптовалютных активов.

В отличие от фишинга старой школы, эти усовершенствованные с помощью ИИ мошенничества являются более изощренными и целенаправленными, часто не содержат опечаток или неловких формулировок, которые обычно выдают фишинговую аферу. Некоторые даже используют чат-ботов с ИИ, выдающих себя за представителей службы поддержки бирж или кошельков, обманывая пользователей и заставляя их раскрывать личную информацию. ключи или коды двухфакторной аутентификации (2FA) под видом «проверки».

Вредоносное ПО, нацеленное на браузерные кошельки

В 2022 году некоторые вредоносные программы были специально нацелены на браузерные кошельки, такие как MetaMask: штамм под названием Mars Stealer мог вынюхивать приватные ключи для более чем 40 различных расширений браузера для кошельков и приложений 2FA, выкачивая все найденные средства. Такое вредоносное ПО часто распространяется через фишинговые ссылки, поддельные загрузки программного обеспечения или пиратские криптоинструменты.

Попав в вашу систему, оно может отслеживать ваш буфер обмена (чтобы подменить адрес злоумышленника, когда вы копируете и вставляете адрес кошелька), регистрировать нажатия клавиш или экспортировать файлы с семенными фразами — и все это без явных признаков.

Эксплуатация уязвимостей смарт-контрактов

Уязвимости смарт-контрактов — это золотая жила для хакеров, и боты с искусственным интеллектом используют их быстрее, чем когда-либо. Эти боты постоянно сканируют такие платформы, как Ethereum или BNB Smart Chain, в поисках уязвимостей в недавно развернутых проектах DeFi. Как только они обнаруживают проблему, они автоматически ее используют, часто в течение нескольких минут.

Исследователи продемонстрировали, что чат-боты с искусственным интеллектом, такие как те, которые работают на GPT-3, могут анализировать код смарт-контрактов для выявления уязвимостей, которые можно использовать. Например, Стивен Тонг, соучредитель Zellic, продемонстрировал чат-бота с искусственным интеллектом, обнаруживающего уязвимость в функции «вывода» смарт-контракта, аналогичную уязвимости, использованной в атаке на Fei Protocol, которая привела к убыткам в размере 80 миллионов долларов.

Атаки методом перебора

Атаки методом перебора раньше занимали вечность, но боты с искусственным интеллектом сделали их опасно эффективными. Анализируя предыдущие взломы паролей, эти боты быстро выявляют tify patterns, чтобы взломать пароли и семенные фразы в рекордно короткие сроки. Исследование 2024 года, посвященное настольным криптовалютным кошелькам, включая Sparrow, Etherwall и Bither, показало, что слабые пароли значительно снижают сопротивляемость атакам методом перебора, подчеркивая, что надежные, сложные пароли имеют решающее значение для защиты цифровых активов.

Мошенничество с помощью дипфейков

Представьте, что вы смотрите видео, в котором авторитетный крипто-инфлюенсер или генеральный директор просит вас инвестировать — но это полностью подделка. Это реальность мошенничества с помощью глубоких подделок, основанного на искусственном интеллекте. Эти боты создают ультрареалистичные видео и голосовые записи, обманывая даже опытных владельцев криптовалюты и заставляя их переводить средства.

Продвижение криптовалютного мошенничества в социальных сетях

На таких платформах, как X и Telegram, рои ботов с искусственным интеллектом массово продвигают криптовалютные мошенничества. Бот-сети, такие как «Fox8», использовали ChatGPT для генерации сотен убедительных постов, рекламирующих мошеннические токены и отвечающих пользователям в режиме реального времени.

В одном случае мошенники злоупотребили именами Илона Маска и ChatGPT, чтобы прорекламировать фальшивую раздачу криптовалюты — в комплекте с дипфейк-видео Маска — обманывая людей, чтобы те переводили деньги мошенникам.

Романтическое мошенничество с использованием ИИ

В 2023 году исследователи Sophos обнаружили криптовалютных романтических мошенников, использующих ChatGPT для общения с несколькими жертвами одновременно, что делало их любовные сообщения более убедительными и масштабируемыми.

Аналогичным образом, Meta сообщила о резком росте числа вредоносных программ и фишинговых ссылок, замаскированных под ChatGPT или инструменты искусственного интеллекта, которые часто связаны с мошенничеством с криптовалютами. А в сфере романтического мошенничества искусственный интеллект способствует росту так называемых операций «убоя свиней» — мошенничества с длительным сроком, когда мошенники налаживают отношения, а затем заманивают жертв. жертв в поддельные криптовалютные инвестиции. Яркий случай произошел в Гонконге в 2024 году: полиция разоблачила преступную группировку, которая обманула мужчин по всей Азии на 46 миллионов долларов с помощью романтического мошенничества с помощью ИИ.

Мошенничество с торговыми ботами на базе ИИ

ИИ используется в сфере торговых ботов для криптовалют — часто как модное слово для обмана инвесторов, а иногда как инструмент для технических эксплойтов.

Ярким примером является YieldTrust.ai, который в 2023 году продвигал бота с ИИ, якобы приносящего 2,2% дохода в день — астрономическую, неправдоподобную прибыль. Регулирующие органы нескольких штатов провели расследование и не нашли никаких доказательств существования «бота с ИИ»; это оказалось классической финансовой пирамидой, использующей ИИ как модное слово, чтобы привлечь жертв. YieldTrust.ai в конечном итоге был закрыт властями, но не прежде, чем инвесторы были обмануты ловким маркетингом.

Даже когда автоматический торговый бот является реальным, он часто не является той машиной для печатания денег, о которой заявляют мошенники. Например, компания Arkham Intelligence, занимающаяся анализом блокчейнов, рассказала о случае, когда так называемый арбитражный торговый бот (вероятно, рекламируемый как управляемый искусственным интеллектом) выполнил невероятно сложную серию сделок, включая флэш-кредит на 200 миллионов долларов, и в итоге получил мизерную прибыль в размере 3,24 доллара.

На самом деле, многие мошенники, занимающиеся «торговлей с помощью искусственного интеллекта», заберут ваш депозит и, в лучшем случае, проведут несколько случайных сделок (или не будут торговать вообще), а затем будут придумывать отговорки, когда вы попытаетесь снять деньги. Некоторые недобросовестные операторы также используют ботов с искусственным интеллектом в социальных сетях, чтобы сфабриковать послужной список (например, поддельные отзывы или боты X, которые постоянно публикуют «выигрышные» des»), чтобы создать иллюзию успеха. Все это часть уловки.

С более технической точки зрения, преступники действительно используют автоматизированных ботов (не обязательно с искусственным интеллектом, но иногда обозначаемых как таковые) для эксплуатации криптовалютных рынков и инфраструктуры. Например, боты-фронтранеры в DeFi автоматически вставляют себя в ожидающие транзакции, чтобы украсть часть стоимости (атака «сэндвич»), а боты-флэш-кредиты выполняют молниеносные сделки, чтобы использовать ценовые различия или уязвимые смарт-контракты. Для этого требуются навыки программирования, и обычно они не продаются жертвам; вместо этого они являются инструментами прямого воровства, используемыми хакерами.

ИИ может улучшить их, оптимизируя стратегии быстрее, чем человек. Однако, как уже упоминалось, даже высокотехнологичные боты не гарантируют больших прибылей — рынки конкурентны и непредсказуемы, что даже самый совершенный ИИ не может надежно предсказать.

Между тем, риск для жертв реальный: если торговый алгоритм работает некорректно или написан со злым умыслом, он может уничтожить ваши средства за секунды. Были случаи, когда мошеннические боты на биржах вызывали внезапные обвалы или истощали резервы ликвидности, в результате чего пользователи несли огромные убытки из-за проскальзывания.

ИИ как инструмент для киберпреступников

ИИ учит киберпреступников взламывать криптовалютные платформы, позволяя менее опытным злоумышленникам проводить убедительные атаки. Это помогает объяснить, почему кампании по криптовалютному фишингу и распространению вредоносных программ так резко расширились — инструменты ИИ позволяют злоумышленникам автоматизировать свои мошеннические схемы и постоянно совершенствовать их на основе того, что работает.

ИИ также суперча Угрозы вредоносного ПО и хакерские тактики, направленные на пользователей криптовалют. Одной из проблем является вредоносное ПО, созданное с помощью искусственного интеллекта, — вредоносные программы, которые используют ИИ для адаптации и уклонения от обнаружения.

Вредоносное ПО, созданное с помощью ИИ: BlackMamba

В 2023 году исследователи продемонстрировали концептуальную модель под названием BlackMamba — полиморфный кейлоггер, который использует языковую модель ИИ (подобную технологии, лежащей в основе ChatGPT) для перезаписи своего кода при каждом запуске. Это означает, что каждый раз, когда BlackMamba запускается, он создает в памяти новый вариант самого себя, что помогает ему обходить антивирусные программы и средства защиты конечных точек.

В ходе тестирования это вредоносное ПО, созданное с помощью ИИ, не было обнаружено ведущей в отрасли системой обнаружения и реагирования на угрозы конечных точек. После активации оно могло незаметно перехватывать все, что вводил пользователь, включая пароли криптовалютных бирж или семенные фразы кошельков, и отправлять эти данные злоумышленникам.

Хотя BlackMamba был всего лишь лабораторной демонстрацией, он подчеркивает реальную угрозу: преступники могут использовать ИИ для создания изменяющегося вредоносного ПО, которое нацелено на криптовалютные счета и гораздо сложнее обнаружить, чем традиционные вирусы.

Трояны, замаскированные под ИИ

Даже без экзотического вредоносного ПО на базе ИИ злоумышленники злоупотребляют популярностью ИИ для распространения классических троянов. Мошенники часто создают поддельные приложения «ChatGPT» или связанные с ИИ, которые содержат вредоносное ПО, зная, что пользователи могут ослабить бдительность из-за брендинга ИИ. Например, аналитики по безопасности обнаружили мошеннические веб-сайты, имитирующие сайт ChatGPT с кнопкой «Скачать для Windows»; при нажатии на нее на компьютер жертвы незаметно устанавливается троян, крадущий криптовалюту.

ИИ как услуга (AI-as-a-service) для киберпреступников

Помимо самого вредоносного ПО, A Я снижаю барьер в виде необходимости обладать определенными навыками для потенциальных хакеров. Раньше преступнику требовались некоторые знания в области программирования, чтобы создавать фишинговые страницы или вирусы. Теперь же большую часть работы выполняют подпольные инструменты «AI-as-a-service» (ИИ как услуга).

На форумах даркнета появились незаконные чат-боты на базе ИИ, такие как WormGPT и FraudGPT, которые предлагают по запросу генерировать фишинговые электронные письма, код вредоносного ПО и советы по взлому. За определенную плату даже преступники, не обладающие техническими знаниями, могут использовать эти боты на базе ИИ для создания убедительных мошеннических сайтов, новых вариантов вредоносного ПО и сканирования уязвимостей программного обеспечения.

Будущее криптобезопасности: ИИ против ИИ

Угрозы, основанные на ИИ, становятся все более изощренными, поэтому для защиты цифровых активов от автоматизированных мошенничеств и взломов необходимы надежные меры безопасности.

В перспективе роль ИИ в киберпреступности, вероятно, будет расти, становясь все более изощренной и труднообнаружимой. Передовые системы ИИ будут автоматизировать сложные кибератаки, такие как подделка личности с помощью дипфейков, мгновенно использовать уязвимости смарт-контрактов при их обнаружении и осуществлять точно нацеленные фишинговые атаки.

Для противодействия этим развивающимся угрозам безопасность блокчейна будет все больше полагаться на обнаружение угроз с помощью ИИ в режиме реального времени. Такие платформы, как CertiK, уже используют передовые модели машинного обучения для ежедневного сканирования миллионов транзакций блокчейна, мгновенно обнаруживая аномалии.

По мере того, как киберугрозы становятся все более изощренными, эти проактивные системы ИИ станут необходимыми для предотвращения серьезных нарушений, сокращения финансовых потерь и борьбы с ИИ и финансовым мошенничеством, чтобы сохранить доверие к криптовалютным рынкам.

Заключение

U В конечном итоге будущее криптобезопасности будет в значительной степени зависеть от сотрудничества в рамках всей отрасли и совместных систем защиты на базе искусственного интеллекта. Биржи, блокчейн-платформы, поставщики услуг кибербезопасности и регулирующие органы должны тесно сотрудничать, используя искусственный интеллект для прогнозирования угроз до их материализации. Хотя кибератаки с использованием искусственного интеллекта будут продолжать развиваться, лучшей защитой для криптосообщества является информированность, проактивность и адаптивность — превращение искусственного интеллекта из угрозы в своего сильнейшего союзника.

21.08.2025 10:48