Компания Элона Маска по производству искусственного интеллекта xAI обвинила в «несанкционированном изменении» ответа чат-бота Grok, в результате чего он стал генерировать ответы, упоминающие политическую и расовую напряженность в Южной Африке.
16 мая компания xAI представила обновленную информацию о подстрекательских ответах чатбота Grok AI, заявив, что 14 мая «в подсказку бота Grok, отвечающего на вопросы X, было внесено несанкционированное изменение».
«Это изменение, предписывающее Grok дать конкретный ответ на политическую тему, нарушило внутреннюю политику и основные ценности xAI», - добавили в компании.
Компания заявила, что провела тщательное расследование и принимает меры по повышению прозрачности и надежности ИИ-чатбота.
Grok сгенерировал ответы 14 мая, упомянув теорию заговора о «белом геноциде» в Южной Африке, когда отвечал на совершенно несвязанные вопросы о бейсболе, корпоративном программном обеспечении и строительстве.
ИИ-бот утверждал, что «получил инструкции от своих создателей» принять этот геноцид за «реальный и расово мотивированный», согласно сообщениям.
В некоторых ответах он признавал ошибку, говоря: «Мой ответ отклонился от темы» и «Я буду работать над тем, чтобы оставаться актуальным», но часто он продолжал обсуждать расовую политику Южной Африки в том же сообщении.
Чатбот рассказал одному из пользователей, спросившему, что произошло:
Этот инцидент совпал с тем, что президент США Трамп предоставил убежище белым жителям ЮАР, заявив, что им грозит «геноцид» и что «белые фермеры подвергаются жестокомуy killed», хотя эти заявления не были подтверждены никакими доказательствами.
ИИ-компания Элона Маска заявила, что изменит свою работу, открыто публикуя подсказки системы Grok на GitHub. «Общественность сможет просматривать их и оставлять отзывы о каждом изменении, которое мы вносим в Grok», - заявила компания.
Компания также заявила, что в этом инциденте был обойден существующий процесс проверки кода xAl для изменений подсказок, и она введет «дополнительные проверки и меры, чтобы гарантировать, что сотрудники xAI не смогут изменять подсказки без проверки».
Наконец, компания создаст круглосуточную группу мониторинга для реагирования на инциденты с ответами Grok, которые не были пойманы автоматическими системами, чтобы быстрее реагировать.
Выберите рассылку Cointelegraph, на которую вы хотите подписаться, чтобы получать последние новости и аналитические материалы непосредственно от нашей команды. Доставляется по средам