Новости криптовалюты: актуальная информация о биткойне, блокчейне и других цифровых активах. Аналитика, прогнозы, тренды и события криптовалютного мира в одном месте.

Закон RISE Луммис «своевременный и необходимый», но не хватает деталей

Законодательство об ответственности за ИИ: Защита инноваций или подачка компаниям?

Законодательство о гражданско-правовой ответственности не часто становится поводом для приятной беседы за ужином, но оно может оказать огромное влияние на развитие таких новых технологий, как искусственный интеллект.

Если правила ответственности плохо проработаны, они могут создать барьеры для будущих инноваций, подвергая предпринимателей - в данном случае разработчиков искусственного интеллекта - ненужным юридическим рискам. Так утверждает сенатор США Синтия Ламмис, которая на прошлой неделе представила Закон об ответственных инновациях и безопасной экспертизе (RISE) от 2025 года.

Этот законопроект призван защитить разработчиков ИИ от судебного преследования в гражданском суде, чтобы врачи, адвокаты, инженеры и другие специалисты «могли понять, что может и чего не может сделать ИИ, прежде чем полагаться на него».

Первые отклики на закон RISE от источников, с которыми связался Cointelegraph, были в основном положительными, хотя некоторые критиковали ограниченную сферу действия законопроекта, его недостатки в отношении стандартов прозрачности и ставили под сомнение предложение разработчикам ИИ защиты от ответственности.

По мнению Хамида Экбиа, профессора Школы гражданства и общественных дел Максвелла при Сиракузском университете, законопроект Ламмиса «своевременен и необходим». (Ламмис назвал его «первым в стране целенаправленным законом о реформе ответственности для профессионального ИИ»)

Но законопроект слишком сильно склоняет баланс в пользу разработчиков ИИ, сказал Экбиа в интервью Cointelegraph. Закон RISE требует от них публично раскрывать спецификации моделей, чтобы профессионалы могли принимать взвешенные решения об инструментах ИИ, которые они решили использовать, но:

Неудивительно, что некоторые поспешили набросились на законопроект Ламмиса как на «подачку» ИИ-компаниям. Демократическое подполье«, которое называет себя »левоцентристским политическим сообществом«, отметило на одном из своих форумов, что »компании, занимающиеся разработкой искусственного интеллекта, не хотят, чтобы на них подавали в суд за провалы их инструментов, и этот законопроект, если он будет принят, позволит добиться этого".

Не все с этим согласны. Я бы не стал так далеко заходить, чтобы называть законопроект «подачкой» для ИИ-компаний", - сказал в интервью Cointelegraph Феликс Шипкевич, директор юридической фирмы Shipkevich Attorneys at Law.

Предлагаемое в законе RISE положение об иммунитете, похоже, направлено на защиту разработчиков от строгой ответственности за непредсказуемое поведение больших языковых моделей, пояснил Шипкевич, особенно когда нет халатности или намерения нанести вред. С юридической точки зрения это рациональный подход. Он добавил:

Сфера действия предлагаемого закона довольно узкая. Он в основном направлен на сценарии, в которых профессионалы используют инструменты ИИ при работе со своими клиентами или пациентами. Например, финансовый консультант может использовать инструмент искусственного интеллекта для разработки инвестиционной стратегии для инвестора, или врач-рентгенолог может использовать программу искусственного интеллекта для интерпретации рентгеновского снимка.

Закон RISE не рассматривает случаи, когда между разработчиком ИИ и конечным пользователем нет профессионального посредника, например, когда чат-боты используются в качестве цифровых компаньонов для несовершеннолетних.

Подобное дело о гражданской ответственности недавно возникло во Флориде, где подросток покончил с собой после того, как в течение нескольких месяцев общался с чат-ботом ИИ. Погибший Семья погибшего заявила, что программное обеспечение было разработано таким образом, что оно было небезопасно для несовершеннолетних. «Кто должен нести ответственность за гибель людей?» - спрашивает Экбия. Такие случаи не рассматриваются в предложенном Сенатом законодательстве.

"Необходимы четкие и единые стандарты, чтобы пользователи, разработчики и все заинтересованные стороны понимали правила дорожного движения и свои юридические обязательства, - сказал Cointelegraph Райан Эббот, профессор права и здравоохранения в Школе права Университета Суррея.

Но это сложно, потому что ИИ может создать новые виды потенциального вреда, учитывая сложность, непрозрачность и автономность технологии. По словам Эбботта, который имеет как медицинское, так и юридическое образование, особенно сложной будет сфера здравоохранения с точки зрения гражданской ответственности.

Например, исторически врачи превосходили программное обеспечение ИИ в постановке медицинских диагнозов, но в последнее время появляются свидетельства того, что в некоторых областях медицинской практики человек в контуре «фактически добивается худших результатов, чем если бы ИИ выполнял всю работу», - объясняет Эбботт. «Это поднимает всевозможные интересные вопросы ответственности».

Кто будет выплачивать компенсацию, если будет допущена грубая врачебная ошибка, когда врач уже не участвует в процессе? Покроет ли это страхование от недобросовестной практики? Возможно, нет.

Некоммерческая исследовательская организация AI Futures Project предварительно поддержала законопроект (с ней проводились консультации в процессе его разработки). Однако исполнительный директор Дэниел Кокотайло заявил, что раскрытие информации о прозрачности требовали от разработчиков ИИ.

«Общественность заслуживает того, чтобы знать, какие цели, ценности, программы, предубеждения, инструкции и т. д. компании пытаются придать мощным системам ИИ». По словам Кокотайло, данный законопроект не требует такой прозрачности и, следовательно, не заходит достаточно далеко.

Кроме того, «компании всегда могут принять решение взять на себя ответственность вместо того, чтобы быть прозрачными, поэтому, когда компания захочет сделать что-то, что не понравится общественности или регулирующим органам, она может просто отказаться от этого», - сказал Кокотайло.

Позиция ЕС в отношении ответственности за ИИ была неоднозначной. Директива ЕС об ответственности ИИ была впервые задумана в 2022 году, но в феврале 2025 года она была отозвана, по некоторым данным, в результате лоббирования со стороны индустрии ИИ.

Тем не менее, законодательство ЕС, как правило, основывается на правах человека. Как отмечается в недавней статье в UCLA Law Review, подход, основанный на правах человека, «подчеркивает расширение прав и возможностей отдельных лиц», особенно конечных пользователей, таких как пациенты, потребители или клиенты.

Риск-ориентированный подход, как в законопроекте Ламмиса, напротив, основывается на процессах, документации и инструментах оценки. Он будет больше сосредоточен на выявлении и смягчении предвзятости, например, а не на предоставлении пострадавшим людям конкретных прав.

Когда Cointelegraph спросил Кокотайло, какой подход к гражданской ответственности больше подходит для США - «основанный на рисках» или «основанный на правилах», он ответил: «Я думаю, что акцент должен быть сделан на рисках и сосредоточен на тех, кто создает и внедряет технологии.»

ЕС в целом придерживается более проактивного подхода к таким вопросам, добавил Шипкевич. «Их законы требуют, чтобы разработчики ИИ заранее показывали, что они соблюдают правила безопасности и прозрачности».

«Я положительно отношусь к закону RISE Act, пока это предложенное законодательство рассматривается как отправная точка», - сказал Шипкевич. «В конце концов, разумно предоставить некоторую защиту разработчикам, которые не действуют халатно и не имеют контроля над тем, как их модели используются в дальнейшем». Он добавил:

По словам Джастина Баллока, вице-президента по политике организации «Американцы за ответственные инновации» (ARI), «закон RISE выдвигает ряд сильных идей, включая федеральное руководство по прозрачности, безопасную гавань с ограниченной сферой действия и четкие правила ответственности для профессиональных разработчиков ИИ», хотя ARI и не поддержала этот закон.

Однако Буллок тоже обеспокоен прозрачностью и раскрытием информации - то есть обеспечением эффективности требуемых оценок прозрачности. Об этом он рассказал Cointelegraph:

Тем не менее, в целом законопроект Ламмиса «является конструктивным первым шагом в разговоре о том, как должны выглядеть федеральные требования к прозрачности ИИ», - сказал Баллок.

Еженедельный обзор ключевых бизнес-тенденций в области блокчейна и криптовалют, от стартапов до изменений в законодательстве. Получите ценные сведения, чтобы ориентироваться на рынке и находить финансовые возможности. Доставляется каждый четверг

22.06.2025 20:20