Ключевые моменты
1. Повышенная производительность
Превосходное рассуждение: Доминирует в тестах по математике (AIME 2024, MATH-500) и программированию (Codeforces).
Архитектура: MoE + RL-улучшенное обучение с 671B параметрами (37B активных/токен).
2. Локальный доступ через Ollama
Установите Оллама; Бегать ollama run deepseek-r1:7b для загрузки; Подтвердите с помощью ollama list и взаимодействовать через терминал.
3. Проблемы локального развертывания
Аппаратные средства: Требуется высококлассный GPU(например, H800) с 24 ГБ+ видеопамяти.
Память: Параметры 671B замедляют загрузку; риски подмены диска.
Установка: Ручная установка весов, библиотек и конфигурации.
Дистиллированные модели: Меньшие версии (например, Qwen-32B) экономят ресурсы, но жертвуют производительностью.
4. Доступ к API: Novita AI предлагает API для DeepSeek R1. Просто зарегистрируйтесь на бесплатную пробную версию и используйте API с простыми запросами.
DeepSeek R1 — это передовая модель искусственного интеллекта, известная своими мощными аналитическими способностями, особенно в математике и программировании. В этой статье вы узнаете о различных способах доступа к DeepSeek R1: локально или через API.
Что такое DeepSeek R1?
- Дата выпуска: январь 21, 2025
- Масштаб модели:
- Ключевые особенности:
- Модель Размер: 671B параметров (37B активных/токенов)
- Токенизатор: Улучшенный токенизатор с тегами саморефлексии
- Поддерживаемые Языки: Многоязычный с культурной адаптацией
- мультимодальные: Только текст
- Контекстное окно: 128 тыс. токенов
- Форматы хранения: Поддержка квантования Q8/Q5
- Архитектура: Смесь экспертов (MoE) + учебный конвейер с расширенным обучением
- Метод обучения: Построен на базе V3 с конвейером RL (SFT → RL → SFT → RL)
- Данные обучения: База V3 + данные оптимизации RL
Сравнение с эталонными показателями

DeepSeek-R1 демонстрирует превосходную производительность в большинстве тестов, особенно в задачах, требующих высокой точности и сложных рассуждений (таких как AIME 2024, Codeforces, MATH-500 и MMLU). В этих областях он превосходит такие модели, как OpenAI-o1-1217 и OpenAI-o1-mini. Однако в некоторых задачах, таких как GPQA Diamond и SWE-bench Verified, DeepSeek-R1 демонстрирует более низкую производительность, что указывает на потенциальные области для улучшения по сравнению с такими моделями, как Open AI O1.
Области применения
- Решение математических задач и генерация кода.
- Сложные логические задачи.
- Помощь в диагностике сложных проблем.
- Анализ многошаговых сценариев.
- Синтез информации из больших наборов данных.
- Приложения для обслуживания клиентов.
Как получить локальный доступ к DeepSeek R1
Пошаговое Руководство по Установке
1. Установите Оллама
- Посетить Веб-сайт Олламы, скачайте и установите версию для вашей ОС.
2. Загрузите модель DeepSeek-R1
- Откройте терминал и выполните (используя в качестве примера версию параметра 7B): bashCopy
ollama run deepseek-r1:7b(Дождитесь завершения загрузки; время зависит от скорости сети.)
ollama run deepseek-r1:7b
3. Проверка и запуск
- Проверить установку:
ollama list # Check if "deepseek-r1" appears in the list
- Запустить модель:
ollama run deepseek-r1:7b
4. Примеры использования
- Задать вопрос: bashКопировать
>>> "Explain quantum computing in simple terms." - Генерировать код: bashКопировать
>>> "Write a Python function to calculate the Fibonacci sequence."
Проблемы локального развертывания
1. Аппаратные ограничения
- Высокие требования к ресурсам:
- Требуется высокого класса GPUs/TPU (например, H800) со значительным объемом VRAM/RAM.
- Ограничения памяти:
- 671B параметров (37B активируются на токен) приводят к медленной загрузке.
- Недостаток VRAM/RAM приводит к подмене диска или сбою.
2. Установка и конфигурация
- Комплексная установка:
- Действия, выполняемые вручную: загрузка весов модели (Hugging Face), установка библиотек (например,
transformers), настроить фреймворки. - Требуются технические знания для оптимизации.
- Действия, выполняемые вручную: загрузка весов модели (Hugging Face), установка библиотек (например,
- Оптимизация программного обеспечения:
- Необходимо заставить ответы начать с
<think>\nдля обеспечения правильных моделей рассуждения.
- Необходимо заставить ответы начать с
3. Узкие места производительности
- Медленный вывод:
- ЦПУ/GPU Ограничения и пропускная способность памяти снижают скорость обработки.
- Накладные расходы на техническое обслуживание:
- Ручное обновление новых версий моделей требует постоянных усилий.
4. Компромиссы с дистиллированными моделями
- Сокращение потребности в ресурсах:
- Меньшие версии (например, Qwen-32B, Llama-70B) предъявляют более низкие аппаратные требования.
- Пример: Qwen-32B превосходит OpenAI-o1-mini в тестах.
- Недостатки производительности:
- Пожертвуйте точностью или возможностями по сравнению с полной моделью 671B.
- Могут испытывать трудности с выполнением сложных задач, требующих глубокого рассуждения.
Для получения полного спектра возможностей: выберите доступ через API, чтобы избежать проблем с оборудованием и настройкой.
Как получить доступ к DeepSeek R1 через Novita AI
Novita AI — это облачная платформа ИИ, которая предлагает разработчикам простой способ развертывания моделей ИИ с помощью нашего простого API, а также предоставляет доступный и надежный GPU облако для строительства и масштабирования.
Шаг 1: войдите в систему и получите доступ к библиотеке моделей
Войдите в свою учетную запись и нажмите на кнопку Библиотека моделей .

Шаг 2: Выберите модель
Просмотрите доступные варианты и выберите модель, которая соответствует вашим потребностям.

Шаг 3. Начните бесплатную пробную версию
Начните бесплатную пробную версию, чтобы изучить возможности выбранной модели.

Шаг 4: Получите свой ключ API
Для аутентификации через API мы предоставим вам новый API-ключ. Перейдя на страницу «Настройки», вы можете скопировать API-ключ, как показано на изображении.

Шаг 5: Установка API
Установите API, используя менеджер пакетов, соответствующий вашему языку программирования.

После установки импортируйте необходимые библиотеки в среду разработки. Инициализируйте API, используя свой ключ API, чтобы начать взаимодействие с Novita AI LLM. Это пример использования API завершения чата для пользователей Python.
from openai import OpenAI
client = OpenAI(
base_url="https://api.novita.ai/v3/openai",
api_key="<YOUR Novita AI API Key>",
)
model = "deepseek/deepseek_r1"
stream = True # or False
max_tokens = 2048
system_content = """Be a helpful assistant"""
temperature = 1
top_p = 1
min_p = 0
top_k = 50
presence_penalty = 0
frequency_penalty = 0
repetition_penalty = 1
response_format = { "type": "text" }
chat_completion_res = client.chat.completions.create(
model=model,
messages=[
{
"role": "system",
"content": system_content,
},
{
"role": "user",
"content": "Hi there!",
}
],
stream=stream,
max_tokens=max_tokens,
temperature=temperature,
top_p=top_p,
presence_penalty=presence_penalty,
frequency_penalty=frequency_penalty,
response_format=response_format,
extra_body={
"top_k": top_k,
"repetition_penalty": repetition_penalty,
"min_p": min_p
}
)
if stream:
for chunk in chat_completion_res:
print(chunk.choices[0].delta.content or "", end="")
else:
print(chat_completion_res.choices[0].message.content)
После регистрации, Novita AI предоставляет вам кредит в размере 0.5$ для начала работы!
Если бесплатные кредиты будут израсходованы, вы сможете продолжить их использование за плату.
Какие методы подходят именно вам?
- Исследователи: Локальный доступ обычно предпочтительнее из-за гибкости и контроля над экспериментами.
- Разработчики:
- Доступ к API подходит для создания приложений и быстрого прототипирования.
- Локальный доступ лучше подходит для тонкой настройки и индивидуальных рабочих процессов.
- Бизнесы: Доступ к API выгоден для быстрой интеграции с сервисами без высоких первоначальных затрат. Локальное развертывание может подойти командам с постоянными требованиями и возможностью инвестировать в инфраструктуру.
- Небольшие команды/отдельные лица: Доступ через API, как правило, более практичен из-за меньших начальных затрат.
- Пользователи с ограниченными техническими навыками: Доступ через API предпочтительнее, поскольку он устраняет необходимость в глубоких технических знаниях.
В заключение, DeepSeek R1 — впечатляющая модель с передовыми возможностями логического вывода. Независимо от того, используете ли вы её локально или через API, вам необходимо будет взвесить все за и против: контроль, стоимость и удобство. Тщательно изучив эти факторы и конкретные рекомендации из этой статьи, вы сможете выбрать оптимальный метод доступа для своих целей.
Часто задаваемые вопросы (FAQ)
eepSeek R1 обеспечивает сопоставимую производительность, особенно в задачах рассуждения, а также имеет такие преимущества, как открытый исходный код и более высокая экономическая эффективность.
DeepSeek R1 — это модель с открытым исходным кодом, которую можно настраивать под конкретные задачи при наличии вычислительных ресурсов и данных.
DeepSeek R1 значительно дешевле моделей OpenAI o1.
Novita AI — это комплексная облачная платформа, которая поможет вам реализовать ваши амбиции в области искусственного интеллекта. Интегрированные API, бессерверные решения, GPU Instance — необходимые вам экономичные инструменты. Избавьтесь от инфраструктуры, начните бесплатно и воплотите свою идею ИИ в реальность.
Рекомендовать Чтение
- DeepSeek V3: усовершенствованные модели с открытым исходным кодом теперь доступны на Novita AI
- Deepseek v3 против Llama 3.3 70b: языковые задачи против кода и математики
- Llama 3.2 3B против DeepSeek V3: сравнение эффективности и производительности.
Узнайте больше от Novita
Подпишитесь, чтобы получать последние публикации на вашу электронную почту.





