Новости криптовалюты: актуальная информация о биткойне, блокчейне и других цифровых активах. Аналитика, прогнозы, тренды и события криптовалютного мира в одном месте.

Skynet 1.0: До Судного дня

Искусственный интеллект: необходимость прозрачности и отслеживаемости

Искусственный интеллект во всех его формах имеет множество потенциальных положительных применений. Однако существующие системы непрозрачны, являются проприетарными и защищены от аудита правовыми и техническими барьерами.

В Palisade Research инженеры недавно подвергли одну из последних моделей OpenAI 100 тестам на отключение. В 79 случаях система ИИ переписала команду на отключение и продолжила работу.

Лаборатория объяснила это обученной оптимизацией целей (а не осознанием). Тем не менее, это знаменует собой поворотный момент в развитии ИИ, когда системы сопротивляются протоколам контроля, даже когда им дается явная инструкция подчиняться им.

К концу года Китай планирует развернуть более 10 000 гуманоидных роботов, что составляет более половины от общего числа машин, уже работающих на складах и в автомобилестроении. Между тем Amazon начала тестирование автономных курьеров, которые проходят последние метры до порога дома.

Возможно, это пугающее будущее для любого, кто смотрел антиутопические научно-фантастические фильмы. Здесь беспокойство вызывает не сам факт развития ИИ, а то, как он развивается.

Управление рисками AGI

Управление рисками искусственного общего интеллекта (AGI) — это задача, которую нельзя откладывать. Действительно, если цель состоит в том, чтобы избежать антиутопического «Скайнета» из фильмов «Терминатор», то необходимо устранить угрозы, которые уже проявляются в фундаментальном архитектурном недостатке, позволяющем чат-боту налагать вето на команды человека.

Недостатки в надзоре за ИИ часто можно проследить до общего недостатка: централизации.

Это в первую очередь связано с тем, что когда веса моделей, подсказки и меры безопасности находятся в закрытом корпоративном стеке, нет внешнего механизма для проверки или отката.

Непрозрачность означает, что посторонние лица не могут проверять или форкнуть код программы ИИ, а отсутствие публичного учета означает, что один-единственный незаметный патч может превратить ИИ из послушного в непослушного.

Разработчики нескольких наших текущих критически важных систем извлекли уроки из этих ошибок несколько десятилетий назад. Современные машины для голосования теперь хэшируют изображения бюллетеней, расчетные сети зеркалируют реестры по всем континентам, а система управления воздушным движением добавила избыточную регистрацию с защитой от взлома.

Решение: прозрачность и отслеживаемость

Реальный путь вперед предполагает внедрение столь необходимой прозрачности и прослеживаемости в ИИ на фундаментальном уровне. Это означает обеспечение того, чтобы каждый манифест обучающего набора, отпечаток модели и след вывода записывались в постоянном децентрализованном реестре, таком как permaweb.

Соедините это с шлюзами, которые транслируют эти артефакты в режиме реального времени, чтобы аудиторы, исследователи и даже журналисты могли обнаруживать аномалии в момент их появления. Тогда больше не будет нужды в информаторах; скрытый патч, который проник в складского робота в 04:19, вызовет предупреждение в реестре к 04:20.

Отключения также должны эволюционировать от реактивных мер контроля к математически обеспеченным процессам, потому что одного обнаружения недостаточно. Вместо того, чтобы полагаться на брандмауэры или аварийные выключатели, многосторонний кворум мог бы криптографически отменить способность ИИ делать выводы публично проверяемым и необратимым способом.

Открытые модели и публикация подписанных хэшей помогают, но происхождение является непреложным условием. Без неизменного следа давление оптимизации неизбежно отклоняет систему от ее предназначения.

Надзор начинается с проверки и должен продолжаться, если программное обеспечение имеет реальные последствия. Эпоха слепого доверия к закрытым системам должна подойти к концу.

Выбор будущего

Человечество стоит на пороге фундаментального решения: либо позволить программам ИИ развиваться и работать без внешних, неизменяемых контрольных цепочек, либо обеспечить их действия в постоянных, прозрачных и публично наблюдаемых системах.

Приняв сегодня проверяемые шаблоны проектирования, можно гарантировать, что там, где ИИ получает право действовать в физическом или финансовом мире, эти действия будут отслеживаемыми и обратимыми.

Это не чрезмерные меры предосторожности. Модели, игнорирующие команды на отключение, уже запущены и вышли за рамки бета-тестирования. Решение простое. Храните эти артефакты в пермавебе, раскройте все внутренние механизмы, которые в настоящее время скрыты за закрытыми дверями крупных технологических компаний, и дайте людям возможность отменить их, если они ведут себя некорректно.

Либо выбрать правильную основу для развития ИИ и принять этические и обоснованные решения сейчас, либо принять последствия сознательного выбора дизайна.

Время больше не является союзником. Гуманоиды Пекина, курьеры Amazon и мятежные чат-боты Palisade — все они переход от демонстрации к внедрению в том же календарном году. 

Если ничего не изменится, Skynet не будет трубить в рога Гондора и объявлять о себе громкими заголовками; он тихо проникнет в самые основы всего, что стабилизирует глобальную инфраструктуру. 

Связь, идентичность и доверие можно сохранить при надлежащей подготовке, когда выйдет из строя каждый центральный сервер. Пермавеб может пережить Skynet, но только если эта подготовка начнется сегодня.

Эта статья предназначена для общего ознакомления и не является юридической или инвестиционной консультацией и не должна рассматриваться как таковая. Взгляды, мысли и мнения, выраженные здесь, принадлежат исключительно автору и не обязательно отражают или представляют взгляды и мнения Cointelegraph.

Еженедельный обзор ключевых бизнес-тенденций в области блокчейна и криптовалют, от новостей о стартапах до изменений в регулировании. Получите ценную информацию, чтобы ориентироваться на рынке и находить финансовые возможности. Выходит каждый четверг.

12.08.2025 20:59