关键亮点
Novita AI 已经介绍过 DeepSeek R1 涡轮,提供 3 倍吞吐量 以及 限时 60% 折扣。此外,此版本完全支持 函数调用.
您可以开始免费试用 Novita AI!

更令人兴奋的是: Novita AI OpenRouter 上 DeepSeek R1 API 排名第一

什么是 DeepSeek R1?
- 发行日期:一月21,2025
- 模型比例:
- 主要特征:
- 型号尺寸:671B 参数(37B 活动/令牌)
- 分词器:增强的标记器,带有自反射标签
- 支持的语言:多语言且具有文化适应性
- 多式联运:纯文本
- 上下文窗口:128K 代币
- 存储格式:Q8/Q5量化支持
- 卓越:混合专家(MoE)+ RL 增强训练流程
- 训练方法:基于 V3 基础,采用 RL 流水线(SFT → RL → SFT → RL)
- 训练数据:V3基础+RL优化数据

基准

DeepSeek-R1 在大部分任务上都展现出了显著的性能提升,尤其是在 Codeforces 和 GPQA Diamond 任务上分别实现了 9.0% 和 5.7% 的提升,展现出了其在处理复杂任务方面的强大能力。
Deepseek R1 硬件要求
| 型号 | 精确 | GPU | 数量 |
|---|---|---|---|
| DeepSeek-R1-Distill-Qwen-1.5B | BF16 | RTX 4090 | 1 |
| DeepSeek-R1-Distill-Qwen-7B | BF16 | RTX 4090 | 1 |
| DeepSeek-R1-Distill-Llama-8B | BF16 | RTX 4090 | 1 |
| DeepSeek-R1-Distill-Qwen-14B | BF16 | RTX 4090 | 2 |
| DeepSeek-R1-Distill-Qwen-32B | BF16 | RTX 4090 | 4 |
| DeepSeek-R1-Distill-Llama-70B | BF16 | RTX 4090 | 8 |
| DeepSeek-R1 (671B) | BF16 | H100 | 8 |
硬件要求 DeepSeek-R1 层次分明:
- 提炼模型 对硬件的要求相对较低,尤其适用于中小规模,适合高端消费级硬件(例如 RTX 4090)。
- 全尺寸模型 对硬件的要求极高,尤其是超大型模型,依赖于专业级硬件(例如 H100 GPU)。
- 总体而言,蒸馏技术显著降低了硬件要求,增强了模型部署的灵活性,但全尺寸模型仍然需要非常高性能的硬件才能达到峰值性能。
如果您发现购买 GPU或自行部署太复杂,你可以使用 Novita AI“ GPU 和API服务,提供完全优化的版本 DeepSeek-R1。非常方便,并且根据代币数量收费。
选择 Novita AI 云端 GPU 服务
Novita AI 是一个 AI 云平台,它为开发人员提供了一种使用我们简单的 API 轻松部署 AI 模型的方法,同时还提供经济实惠且可靠的 GPU 用于构建和扩展的云。
Step1:注册账户
如果你是新来 Novita AI首先在我们的网站上创建一个帐户。注册完成后,前往“GPUs”选项卡来探索可用资源并开始您的旅程。

Step2:探索模板和 GPU 服务器
首先选择符合您项目需求的模板,例如 PyTorch、TensorFlow 或 CUDA。选择符合您需求的版本,例如 PyTorch 2.2.1 或 CUDA 11.8.0。然后,选择 A100 GPU 服务器配置,提供强大的性能,以充足的 VRAM、RAM 和磁盘容量来处理苛刻的工作负载。

步骤3:定制您的部署
选择模板后 GPU通过调整操作系统版本(例如 CUDA 11.8)等参数来自定义部署设置。您还可以调整其他配置,以根据项目的特定需求定制环境。

Step4:正式上线 an 例
完成模板和部署设置后,单击“启动实例”来设置您的 GPU 实例。这将启动环境设置,使您能够开始使用 GPU 为您的 AI 任务提供资源。

选择 Novita AI 用于 API 服务
Novita AI 是一个 AI 云平台,它为开发人员提供了一种使用我们简单的 API 轻松部署 AI 模型的方法,同时还提供经济实惠且可靠的 GPU 用于构建和扩展的云。
步骤 1:登录并访问模型库
登录您的帐户并点击 模型库 按钮。

步骤 2:选择您的型号
浏览可用的选项并选择适合您需求的模型。

第 3 步:开始免费试用
开始免费试用,探索所选型号的功能。

步骤 4:获取您的 API 密钥
为了通过 API 进行身份验证,我们将为您提供一个新的 API 密钥。输入“个人设置“页面,您可以按照图中所示复制API密钥。

步骤 5:安装 API
使用特定于您的编程语言的包管理器安装 API。

安装完成后,将必要的库导入到你的开发环境中。使用你的 API 密钥初始化 API,即可开始与 Novita AI LLM。这是 Python 用户使用聊天完成 API 的示例。
从 openai 导入 OpenAI 客户端 = OpenAI(base_url="https://api.novita.ai/v3/openai", api_key="<你的 Novita AI API Key>", ) model = "deepseek/deepseek_r1" stream = True # 或 False max_tokens = 2048 system_content = """做一个有用的助手""" temperature = 1 top_p = 1 min_p = 0 top_k = 50 presence_penalty = 0 frequency_penalty = 0 repetition_penalty = 1 respond_format = { "type": "text" } chat_completion_res = client.chat.completions.create( model=model, messages=[ { "role": "system", "content": system_content, }, { "role": "user", "content": "你好!", } ], stream=stream, max_tokens=max_tokens, temperature=temp, top_p=top_p, presence_penalty=presence_penalty, frequency_penalty=frequency_penalty, respond_format=response_format, extra_body={ “top_k”:top_k,“repetition_penalty”:repetition_penalty,“min_p”:min_p } ) 如果流:对于 chat_completion_res 中的块:打印(chunk.choices[0].delta.content 或“”,end=""")否则:打印(chat_completion_res.choices[0].message.content)
Novita AI 彻底改变人工智能部署 DeepSeek R1 Turbo,提供 3 倍吞吐量 并支持以下高级功能 函数调用,现在可以使用 限时 20% 折扣. 无论你是在消费级电脑上运行精简模型 GPU滋味 RTX 4090 或部署具有企业级的全尺寸模型 H100 GPUs, Novita AI 提供无与伦比的灵活性。对于那些寻求轻松解决方案的人来说, Novita AI“ GPU 和API服务 提供完全优化的版本 DeepSeek R1 Turbo,与 基于代币的定价 配备 免费试用. 体验更高水平的 AI 性能 DeepSeek R1 Turbo—开始于 Novita AI !
常见问题
DeepSeek R1 Turbo 是 DeepSeek R1 的优化版本,提供 3 倍吞吐量,全面支持函数调用,以及 限时 20% 折扣 on Novita AI!
全尺寸模型:需要企业级 GPU滋味 H100 为了获得最佳性能
是的, Novita AI 提供 免费试用 通过其 API 平台为 DeepSeek R1 提供支持。
Novita AI 是助力您实现 AI 梦想的一体化云平台。集成 API、无服务器、 GPU 实例——您所需的经济高效的工具。无需任何基础设施,免费启动,即可将您的 AI 愿景变为现实。
推荐阅读
- 为什么LLaMA 3.3 70B VRAM要求对家用服务器来说是一个挑战?
- Qwen 2.5 72b 与 Llama 3.3 70b:哪种型号适合您的需求?
- Qwen 2.5 与 Llama 3.2 90B:编码和图像推理能力的比较分析
探索 Novita 的更多内容
订阅即可将最新帖子发送到您的电子邮箱。





