Pi начинал как приложение для майнинга на смартфонах и вырос в одно из крупнейших розничных криптосообществ с десятками миллионов зарегистрированных «Пионеров».
За мобильным уровнем скрывается меньшая, но крайне важная группа: настольные компьютеры и ноутбуки, работающие как «узлы Pi» и запускающие сетевое программное обеспечение. Именно здесь начинается аспект ИИ. В ранних экспериментах Pi с ИИ, проводимых совместно с OpenMind, сотни тысяч этих узлов использовались для выполнения задач по распознаванию изображений на машинах добровольцев.
Таким образом, Pi не начинает с нуля. Он уже объединяет массовую пользовательскую базу с глобально распределенной сетью узлов. Каждое устройство само по себе скромно, но вместе они напоминают распределенную вычислительную сеть, а не типичное криптосообщество.
Знаете ли вы? Потребительские устройства по всему миру совокупно обладают большей теоретической вычислительной мощностью, чем все гипермасштабные центры обработки данных. Почти вся эта мощность простаивает и не используется.
Современные задачи ИИ делятся на два требовательных этапа: обучение больших моделей на огромных наборах данных, а затем обслуживание этих моделей миллионам пользователей в реальном времени.
Децентрализованные и периферийные ИИ-проекты идут другим путем. Вместо одного массивного объекта они распределяют вычисления по множеству меньших устройств на периферии сети, включая телефоны, ПК и локальные серверы, и координируют их с помощью протоколов и, все чаще, блокчейнов. Исследования в области децентрализованного вывода и распределенного обучения показывают, что при правильных стимулах и верификации большие модели могут работать на глобально распределенном оборудовании.
Чтобы это работало на практике, децентрализованной ИИ-сети нужны три вещи: множество участвующих устройств, глобальное распределение, чтобы вывод выполнялся ближе к пользователям, и уровень стимулов, который поддерживает координацию и честность ненадежных, прерывистых узлов.
На бумаге, комбинация Pi из десятков миллионов пользователей и большого слоя узлов, связанных с токеномикой, соответствует этому списку. Нерешенным остается вопрос, можно ли этот сырой потенциал превратить в инфраструктуру, которой разработчики ИИ будут доверять для реальных рабочих нагрузок.
В октябре 2025 года Pi Network Ventures сделала свою первую инвестицию в OpenMind, стартап, разрабатывающий аппаратно-независимую ОС и протокол, предназначенный для того, чтобы роботы и интеллектуальные машины могли думать, учиться и работать вместе в сетях.
Сделка сопровождалась техническим испытанием. Pi и OpenMind провели проверку концепции, в ходе которой добровольные операторы узлов Pi выполняли ИИ-модели OpenMind, включая задачи по распознаванию изображений, на своих собственных машинах. Каналы, связанные с Pi, сообщают, что около 350 000 активных узлов приняли участие и продемонстрировали стабильную производительность.
Для Pi это показывает, что та же настольная инфраструктура, которая используется для консенсуса, может также выполнять сторонние ИИ-задачи. Для OpenMind это живая демонстрация того, как ИИ-агенты используют децентрализованный вычислительный уровень вместо того, чтобы по умолчанию обращаться к облачным гигантам. Для операторов узлов это открывает дверь на торговую площадку, где ИИ-команды платят им в Pi за свободную вычислительную мощность.
Знаете ли вы? Во время дефицита графических процессоров в 2021-2023 годах несколько исследовательских групп и стартапов начали изучать краудсорсинговые вычисления как возможный альтернативный путь.
В этой модели узлы Pi действуют как микро-центры обработки данных. Один домашний персональный компьютер (ПК) не имеет большого значения, но сотни тысяч таких компьютеров, каждый из которых предоставляет время центрального процессора (ЦП) и, в некоторых случаях, время графического процессора (ГП), начинают выглядеть как альтернативный инфраструктурный уровень.
Разработчики ИИ могли бы развертывать задачи вывода, предварительной обработки или небольшого федеративного обучения на срезах популяции узлов вместо того, чтобы арендовать мощности у одного облачного провайдера.
Во-первых, расширяется доступ к вычислениям. ИИ-команды, особенно на развивающихся рынках или в юрисдикциях с более строгими правилами, получают еще один путь к мощностям через оплачиваемую токенами, глобально распределенную сеть.
Во-вторых, токен Pi приобретает конкретную полезность в качестве оплаты за проверенную работу или в качестве залога и репутации для надежных узлов, приближая его к статусу измеряемого инфраструктурного актива.
В-третьих, торговая площадка на базе Pi могла бы соединить разработчиков Web3 и ИИ, обернув все это в интерфейсы прикладного программирования (API), которые функционируют как стандартные облачные конечные точки, так что команды машинного обучения (МО) могут использовать децентрализованные ресурсы, не перестраивая весь свой стек вокруг криптографии.
В оптимистичном сценарии сообщество Pi становится уровнем распространения и выполнения, где ИИ-модели обслуживаются и монетизируются на повседневных устройствах, перемещая по крайней мере часть ИИ из облака в массы.
Домашние машины шумны и непостоянны. Соединения обрываются, устройства перегреваются, операционные системы различаются, и многие пользователи просто выключают их на ночь. Любой планировщик должен предполагать высокую текучесть, избыточно выделять ресурсы для задач и разделять задачи между несколькими узлами, чтобы выход из строя одной машины не нарушил работу ИИ-сервиса.
Даже если узел остается в сети, сеть должна проверить, что он запустил правильную модель с правильными весами и без вмешательства. Такие методы, как репликация результатов, случайные аудиты, доказательства с нулевым разглашением и системы репутации, помогают, но они увеличивают накладные расходы, и чем ценнее рабочая нагрузка, тем строже должны быть эти проверки.
Запуск моделей на оборудовании добровольцев рискует раскрыть конфиденциальную информацию, будь то сама модель или данные, которые она обрабатывает. Регулируемые секторы не будут полагаться на крауд-сеть без сильной песочницы, аттестации или гарантий конфиденциальных вычислений. Операторы узлов, тем временем, должны знать, что они не выполняют вредоносное ПО или незаконный контент.
Если токен Pi используется для покупки и продажи вычислений, некоторые регуляторы будут рассматривать его как служебный токен, привязанный к реальной услуге, со всей вытекающей из этого тщательной проверкой. Команды ИИ также консервативны в отношении основной инфраструктуры. Они часто переплачивают за облако, вместо того чтобы доверять непроверенным крауд-вычислениям.
Чтобы изменить это, Pi понадобится скучная основа корпоративной инфраструктуры, включая соглашения об уровне обслуживания (SLA), мониторинг, логирование, реагирование на инциденты и многое другое.
Pi выходит на поле, которое уже включает децентрализованные вычислительные платформы и сети, ориентированные на ИИ. Некоторые проекты сдают в аренду мощности ГП и ЦП от профессиональных установок и центров обработки данных, позиционируя себя как более дешевые или гибкие облака. Другие строят полноценные ИИ-уровни, включая федеративное обучение, краудсорсинговый вывод, торговые площадки моделей и управление в блокчейне, тесно интегрированные с основными инструментами МО.
Итак, на фоне всего этого подход Pi необычен. Он ориентирован на пользователя, а не на инфраструктуру. Проект сначала создал огромное розничное сообщество, а теперь пытается превратить его часть в ИИ-сеть. Это дает ему множество потенциальных операторов узлов, но основной стек изначально не был создан с учетом ИИ.
Второе его отличие — аппаратный профиль. Вместо того чтобы гоняться за графическими процессорами для центров обработки данных, Pi опирается на повседневные настольные компьютеры, ноутбуки и высокопроизводительные телефоны, распределенные по реальным локациям. Это недостаток для интенсивного обучения, но потенциально полезно для вывода с низкой задержкой, в стиле периферийных вычислений.
Третье — бренд и охват. Многие децентрализованные ИИ-проекты являются нишевыми; Pi уже широко известен среди розничных пользователей. Если он сможет превратить это в достоверную историю для разработчиков, с сетью, которая имеет миллионы доступных пользователей и большой активный набор узлов, он может стать массовым пользовательским интерфейсом для децентрализованного ИИ. Другие платформы могут по-прежнему выполнять самую тяжелую работу за кулисами, но Pi может владеть пользовательским уровнем.
В конечном итоге, Pi будет оцениваться не только по сравнению с облачными провайдерами, но и с этими крипто-нативными вычислительными сетями. Его настоящая проверка заключается в том, сможет ли в основном нетехническое сообщество быть скоординировано во что-то, чему будут доверять разработчики ИИ.
Знаете ли вы? Более половины ежемесячных активных пользователей Pi приходят из регионов, где проникновение традиционных банковских услуг ниже 50%.
То, что тестирует Pi, отражает более широкий переход в технологиях, где ИИ и создание ценности начинают дрейфовать от облачных хранилищ к распределенным сетям.
Если отступить назад, то эксперимент вписывается в более широкую тенденцию: интеллект и создание ценности дрейфуют от централизованных платформ к распределенным агентам и сетям, где роботы, ИИ-сервисы и участники-люди делят общую инфраструктуру.
Станет ли 50-миллионное сообщество Pi на самом деле крауд-компьютером, неизвестно, но даже частичный успех стал бы одним из первых крупномасштабных тестов того, что происходит, когда вы перемещаете ИИ из облака в глобальную массу повседневных устройств.