Экспертиза / Financial One

Как работает новая китайская нейросеть DeepSeek-R1

11065

Основными принципами работы DeepSeek-R1 поделился инженер машинного обучения Алекс Агбола, автор канала «AI with Alex».

Новая большая языковая модель DeepSeek-R1 вызвала бурю в мире технологий и стала значительным прорывом в сообществе исследователей искусственного интеллекта. Команда исследователей ИИ из Китая выпустила ее в прошлое воскресенье, когда TikTok в США был заблокирован на 12 часов.

Как показывают результаты тестов производительности, DeepSeek-R1 работает на том же уровне, что и модель o1 от OpenAI, при решении задач из таких областей, как математика, кодирование и научные рассуждения.

Как работает DeepSeek-R1?

Метод подсказок по цепочке рассуждений (Chain of Thought) – это простая, но эффективная техника. Ее суть заключается в том, чтобы попросить модель объяснять свои рассуждения шаг за шагом, как если бы она «думала вслух».

Вместо того чтобы просто попросить модель предоставить ответ (например, на математическую задачу), в запрос добавляется инструкция, требующая от модели пошагово объяснить, как она пришла к своему ответу. Например: «Объясни, как ты решаешь эту задачу, шаг за шагом». Если модель допустит ошибку, исследователь сможет точно определить, где именно она ошиблась, и подскажет модели, как избежать этой ошибки в будущем.

Еще один способ машинного обучения – обучение с подкреплением (Reinforcement learning). Способ, которым DeepSeek использует обучение с подкреплением, немного отличается от того, как обучается большинство моделей ИИ. Процесс похож на то, как ребенок учится ходить. Если вы когда-нибудь видели, как ребенок спотыкается, держась за предметы, пытаясь понять, как двигаться, вы знаете, что так он учится, как использовать свое тело, чтобы не упасть.

Таким же образом обучение с подкреплением позволяет исследователям обучать модель, оптимизируя ее политику – то есть поведение модели – для получения максимизации вознаграждения. По мере того как модель исследует окружающую среду, она узнает, какая политика приносит наибольшее вознаграждение. Например, у уравнения может быть два или три способа решения, но один из них гораздо короче и эффективнее. Именно такой способ подразумевает самую высокую награду.

С помощью обучения с подкреплением роботы учатся ходить, а самоуправляемые автомобили Tesla – ориентироваться на улицах. DeepSeek-R1 улучшает свою способность отвечать на вопросы с течением времени благодаря обучению с подкреплением. Вместо того чтобы говорить модели, каким должен быть правильный ответ, исследователи позволяют ей самой догадаться, измеряя при этом точность.

Графики производительности показывают, что, в то время как результаты модели o1 от OpenAI выглядят статично, DeepSeek-R1 в итоге превосходит o1 и, если продолжать процесс обучения, может достичь точности, близкой к 90% или даже 100%.

В обучении с подкреплением исследователи не могут точно сказать модели, как изменить свою политику. Поэтому они комбинируют его с методом цепочки рассуждений, чтобы побудить модель к самоанализу и оценке собственной работы, что в конечном итоге приводит к улучшению результатов.

В результате модель оптимизирует свою политику, оценивая, насколько хорошо она отвечает на вопросы, не имея при этом правильного ответа. Процесс включает в себя сравнение старой и новой политики с поправкой на то, насколько новая политика улучшает вознаграждение.

Модель не меняет свою политику слишком резко, поскольку это может привести к нестабильности – подобно тому, как непредсказуемые падения ребенка могут помешать обучению. Исследователи используют метод под названием клиппинг, чтобы ограничить степень изменения политики, обеспечивая стабильность и оптимизируя работу модели с течением времени.

Третья важная техника, которую исследователи DeepSeek использовали в своей модели R1, – это дистилляция модели (Model Distillation). Полная модель DeepSeek имеет 671 млрд параметров, что требует значительных вычислительных ресурсов. Чтобы сделать ее доступнее, исследователи использовали более крупную большую языковую модель (large language model, LLM) с целью научить меньшую модель рассуждать и отвечать на вопросы. Это позволило меньшей модели работать на том же уровне, что и большая, но с гораздо меньшим количеством параметров – около 7 млрд.

Исследователи из Китая разложили модель DeepSeek на более мелкие модели, такие как Llama 3 и Qwen. Большая модель выступает в роли учителя, используя метод цепочки рассуждений для создания примеров ответов на вопросы, которые затем передаются меньшей модели, или ученику. Ученик обучается отвечать на вопросы с той же точностью, что и большая модель, благодаря чему нейросеть DeepSeek становится доступной для людей, не обладающих значительными вычислительными ресурсами.

Интересно, что в процессе обучения с подкреплением модель ученика часто превосходит модель учителя с небольшим отрывом, но при этом требует гораздо меньше памяти и хранилища. Кроме того, в своих экспериментах исследователи обнаружили, что модели-ученики превосходят более крупные модели, такие как GPT-4o и Claude 3.5 Sonnet, в задачах, связанных с математикой, кодированием и научными рассуждениями.

Андрей Виноградов про «Аэрофлот», X5 и золото

О ключевых событиях и тенденциях на финансовых рынках, динамике акций ключевых компаний и перспективах золота рассказал аналитик NZT Rusfond Андрей Виноградов.

За последние два месяца индекс Мосбиржи вырос на 23%, и этот скачок Андрей Виноградов назвал настоящим ралли. «Главными драйверами роста стали ожидания остановки повышения ставок и позитивные новости в геополитике», – отметил эксперт. Тем не менее, он подчеркнул, что инфляция остается ключевым вызовом. С начала года инфляция выросла на 1%, что значительно превышает показатели прошлых лет.

Кроме того, Центральный банк ожидает пика ставки в апреле, однако, как указал финансист, «снижение ставок в ближайшей перспективе маловероятно».

Продолжение





Вернуться в список новостей

Комментарии (0)
Оставить комментарий
Отправить
Новые статьи
  • Акции Газпрома ощущают ограниченную поддержку от газового кризиса в Европе
    Елена Кожухова, аналитик ИК «ВЕЛЕС Капитал» 23.03.2026 16:25
    38

    Российский фондовый рынок к середине сессии находился в минусе, реагируя на падение сырьевых цен, но отступил от минимумов дня. Индекс Мосбиржи к 15:20 мск снизился на 1,00%, до 2836,30 пункта. Индекс РТС упал на 0,99%, до 1063,87 пункта.more

  • Корпоративный центр X5. Финансовые результаты (4К25 МСФО)
    Артем Михайлин, аналитик ИК «ВЕЛЕС Капитал» 23.03.2026 15:55
    83

    Группа X5 в пятницу представила позитивные финансовые результаты за 4К 2025 г. Рентабельность EBITDA по итогам периода составила 6,4%, что существенно выше консенсуса и наших ожиданий. По итогам года группа перевыполнила план, обеспечив рентабельность скор. EBITDA 6,1% при прогнозе 5,8-6%. CAPEX в 2025 г. составил всего 4,6% от выручки, хотя прогноз ритейлера подразумевал показатель 5,5%. В ходе конференц-звонка менеджмент объявил, что ожидает в 2026 г. рост выручки на уровне 12-16% г/г, рентабельность скор. EBITDA не ниже 6% и CAPEX 4,5-4,7% от продаж. more

  • Маркетплейсы могут потерять контроль над скидками
    Владимир Чернов, аналитик Freedom Finance Global 23.03.2026 15:22
    118

    Маркетплейсы в России могут лишиться права участвовать в формировании цен на товары. Такая норма обсуждается в рамках концепции новой модели торговли, подготовленной Минпромторгом и предполагающая поэтапное ограничение скидочных механизмов со стороны платформ.more

  • Российский рынок начал неделю в красной зоне
    Владимир Чернов, аналитик Freedom Finance Global 23.03.2026 14:55
    164

    Торги 23 марта на российских фондовых площадках стартовали на отрицательной территории. К 13:00 мск индекс Мосбиржи опустился на 0,77%, до 2843 пунктов, РТС снизился на 0,79%, до 1066, индекс голубых фишек потерял 0,65%.more

  • «Делимобиль»: рост выручки без роста прибыли. Сработает ли ставка на новую инфраструктуру? Дайджест Fomag
    Николай Пилатовский 23.03.2026 14:30
    143

    «Делимобиль» завершил 2025 год ростом выручки, но без роста качества финансовых показателей. Доходы компании увеличились на 11% до 30,8 млрд рублей, однако EBITDA снизилась до 6,2 млрд рублей, а чистая прибыль сменилась убытком в 3,7 млрд рублей. На этом фоне главным вопросом становится уже не само масштабирование бизнеса, а устойчивость рентабельности текущей модели каршеринга.more