С момента своего запуска 20 января, DeepSeek R1 вызвал бурные дебаты в мире технологий. От восторженных отзывов до скептических оценок, от готовности к внедрению до призывов к запрету – эта большая языковая модель (LLM) заставила задуматься как технологических гигантов, так и политиков о перспективах и рисках развития ИИ.
DeepSeek разработала LLM, сопоставимую по производительности с OpenAI GPT, но за гораздо меньшее время и с меньшими затратами. Это стало возможным благодаря умной оптимизации архитектуры, которая значительно снизила стоимость обучения и вывода модели. По заявлению компании, они смогли создать LLM всего за 60 дней, потратив менее 6 миллионов долларов.
Это действительно впечатляющий результат. В то время как другие компании вкладывают огромные средства в вычислительные мощности, DeepSeek продемонстрировала, что оптимизация архитектуры модели может дать значительные преимущества. Как известно каждому разработчику, существует два основных подхода к увеличению производительности: оптимизировать код и выбросить много вычислительных мощностей. Последний подход крайне затратен, и разработчикам всегда рекомендуется максимально оптимизировать архитектуру, прежде чем прибегать к большим вычислениям.
В условиях огромных инвестиций в стартапы в области ИИ, некоторые разработчики, кажется, стали лениться. Зачем тратить время на оптимизацию, когда можно просто купить больше вычислительных мощностей? DeepSeek показывает, что это не единственный путь. Это - тревожный звонок для разработчиков, напоминание о важности возвращения к основам и поиска инновационных решений. Нужно относиться к инновациям ответственно, выходить за рамки привычного, мыслить нестандартно и не бояться бросать вызов общепринятым нормам. Не стоит тратить деньги и ресурсы впустую – используйте их с умом.
Хотя достижение DeepSeek не является революционным прорывом в ИИ, это, безусловно, важный прецедент. Как и любая другая LLM, DeepSeek R1 имеет ограничения, такие как недостаточное развитие способностей к рассуждению, сложному планированию, пониманию физического мира и долговременной памяти. Ученым пора выходить за рамки LLM, устранять эти ограничения и разрабатывать новые парадигмы архитектур ИИ.
Тем не менее, подход DeepSeek может вдохновить разработчиков по всему миру, включая развивающиеся страны, на создание собственных ИИ-приложений, несмотря на ограниченные ресурсы. Чем больше людей будет участвовать в исследованиях и разработках ИИ, тем быстрее будут развиваться инновации и совершаться значимые прорывы.
Это также созвучно целям Nvidia – сделать ИИ доступным для всех разработчиков и ученых. В этом смысл проекта DIGITS, графического процессора стоимостью 3000 долларов для настольного компьютера, анонсированного в начале января.
Человечеству необходимо использовать весь доступный интеллектуальный потенциал для решения насущных проблем. Ресурсы больше не должны быть препятствием – пришло время пересмотреть старые парадигмы.
К сожалению, успех DeepSeek омрачен некоторыми тревожными деталями в условиях предоставления услуг, которые могут повлиять на конфиденциальность, безопасность и даже бизнес-стратегию пользователей:
Как и другие LLM, DeepSeek R1 подвержена галлюцинациям, содержит ошибки в обучающих данных и отражает политические взгляды Китая на определенные темы, такие как цензура и конфиденциальность. Учитывая китайское происхождение компании, это вполне ожидаемо. Китайский закон о генеративном искусственном интеллекте, применяемый к поставщикам и пользователям систем ИИ, гласит в статье 4 о том, что разработчики и пользователи должны поддерживать основные социалистические ценности и соблюдать китайские законы, регулирующие эту сферу.
Разумеется, у других LLM также есть свои предубеждения и повестка дня. Это подчеркивает необходимость создания надежного и ответственного ИИ, а также тщательного управления связанными с ним рисками.
LLM могут быть подвержены атакам злоумышленников и уязвимы с точки зрения безопасности. Эти уязвимости вызывают особую обеспокоенность, поскольку они могут повлиять на любые приложения, созданные на базе LLM, любой организацией или частным лицом. Компания Qualys протестировала дистиллированную версию DeepSeek-R1 LLaMA 8B на предмет уязвимостей, этических проблем и юридических рисков. Модель провалила половину тестов на джейлбрейк – попытки обойти меры безопасности и этические принципы, встроенные в модели ИИ.
Goldman Sachs рассматривает возможность использования DeepSeek, но модель нуждается в проверке на безопасность, например, на наличие инъекций и джейлбрейка. Это проблема безопасности для любой компании, использующей модель ИИ, независимо от ее происхождения.
DeepSeek R1 – это, безусловно, интересный проект, демонстрирующий потенциал оптимизации в разработке LLM. Однако, важно учитывать риски, связанные с конфиденциальностью, безопасностью и цензурой. Нам необходимо быть бдительными и внедрять адекватное управление рисками перед использованием любой системы или приложения ИИ.
Чтобы смягчить повестку дня LLM и цензуру, вызванную централизованной разработкой, можно рассмотреть возможность децентрализованного ИИ, предпочтительно структурированного в виде децентрализованной автономной организации (DAO). ИИ не знает границ. Возможно, пришло время задуматься о едином глобальном регулировании ИИ.
Данная статья носит общий информационный характер и не предназначена и не должна восприниматься как юридическая или инвестиционная консультация. Взгляды, мысли и мнения, высказанные здесь, принадлежат только автору и не обязательно отражают или представляют взгляды и мнения Cointelegraph.