Novita AI OpenRouter 上 DeepSeek R1 API 排名第一

DeepSeek R1 Turbo

关键亮点

Novita AI 已经介绍过 DeepSeek R1 涡轮,提供 3 倍吞吐量 以及 限时 60% 折扣。此外,此版本完全支持 函数调用.

您可以开始免费试用 Novita AI!

DeepSeek R1 Turbo 价格

更令人兴奋的是: Novita AI OpenRouter 上 DeepSeek R1 API 排名第一

什么是 DeepSeek R1?

r1 创建
资源

基准

Deepseek R1 的基准测试

DeepSeek-R1 在大部分任务上都展现出了显著的性能提升,尤其是在 Codeforces 和 GPQA Diamond 任务上分别实现了 9.0% 和 5.7% 的提升,展现出了其在处理复杂任务方面的强大能力。

Deepseek R1 硬件要求

型号 精确 GPU 数量
DeepSeek-R1-Distill-Qwen-1.5B BF16 RTX 4090 1
DeepSeek-R1-Distill-Qwen-7B BF16 RTX 4090 1
DeepSeek-R1-Distill-Llama-8B BF16 RTX 4090 1
DeepSeek-R1-Distill-Qwen-14B BF16 RTX 4090 2
DeepSeek-R1-Distill-Qwen-32B BF16 RTX 4090 4
DeepSeek-R1-Distill-Llama-70B BF16 RTX 4090 8
DeepSeek-R1 (671B) BF16 H100 8

硬件要求 DeepSeek-R1 层次分明:

  • 提炼模型 对硬件的要求相对较低,尤其适用于中小规模,适合高端消费级硬件(例如 RTX 4090)。
  • 全尺寸模型 对硬件的要求极高,尤其是超大型模型,依赖于专业级硬件(例如 H100 GPU)。
  • 总体而言,蒸馏技术显著降低了硬件要求,增强了模型部署的灵活性,但全尺寸模型仍然需要非常高性能的硬件才能达到峰值性能。

如果您发现购买 GPU或自行部署太复杂,你可以使用 Novita AI“ GPU 和API服务,提供完全优化的版本 DeepSeek-R1。非常方便,并且根据代币数量收费。

选择 Novita AI 云端 GPU 服务

Novita AI 是一个 AI 云平台,它为开发人员提供了一种使用我们简单的 API 轻松部署 AI 模型的方法,同时还提供经济实惠且可靠的 GPU 用于构建和扩展的云。

Step1:注册账户

如果你是新来 Novita AI首先在我们的网站上创建一个帐户。注册完成后,前往“GPUs”选项卡来探索可用资源并开始您的旅程。

Novita AI 网站截图

Step2:探索模板和 GPU 服务器

首先选择符合您项目需求的模板,例如 PyTorch、TensorFlow 或 CUDA。选择符合您需求的版本,例如 PyTorch 2.2.1 或 CUDA 11.8.0。然后,选择 A100 GPU 服务器配置,提供强大的性能,以充足的 VRAM、RAM 和磁盘容量来处理苛刻的工作负载。

novita ai 使用云 GPU 的网站截图

步骤3:定制您的部署

选择模板后 GPU通过调整操作系统版本(例如 CUDA 11.8)等参数来自定义部署设置。您还可以调整其他配置,以根据项目的特定需求定制环境。

novita ai 使用云 GPU 的网站截图

Step4:正式上线 an 例

完成模板和部署设置后,单击“启动实例”来设置您的 GPU 实例。这将启动环境设置,使您能够开始使用 GPU 为您的 AI 任务提供资源。

novita ai 使用云 GPU 的网站截图

选择 Novita AI 用于 API 服务

Novita AI 是一个 AI 云平台,它为开发人员提供了一种使用我们简单的 API 轻松部署 AI 模型的方法,同时还提供经济实惠且可靠的 GPU 用于构建和扩展的云。

步骤 1:登录并访问模型库

登录您的帐户并点击 模型库 按钮。

登录并访问模型库

步骤 2:选择您的型号

浏览可用的选项并选择适合您需求的模型。

第 3 步:开始免费试用

开始免费试用,探索所选型号的功能。

开始免费试用

步骤 4:获取您的 API 密钥

为了通过 API 进行身份验证,我们将为您提供一个新的 API 密钥。输入“个人设置“页面,您可以按照图中所示复制API密钥。

获取 API 密钥

步骤 5:安装 API

使用特定于您的编程语言的包管理器安装 API。

安装 api

安装完成后,将必要的库导入到你的开发环境中。使用你的 API 密钥初始化 API,即可开始与 Novita AI LLM。这是 Python 用户使用聊天完成 API 的示例。

从 openai 导入 OpenAI 客户端 = OpenAI(base_url="https://api.novita.ai/v3/openai", api_key="<你的 Novita AI API Key>", ) model = "deepseek/deepseek_r1" stream = True # 或 False max_tokens = 2048 system_content = """做一个有用的助手""" temperature = 1 top_p = 1 min_p = 0 top_k = 50 presence_penalty = 0 frequency_penalty = 0 repetition_penalty = 1 respond_format = { "type": "text" } chat_completion_res = client.chat.completions.create( model=model, messages=[ { "role": "system", "content": system_content, }, { "role": "user", "content": "你好!", } ], stream=stream, max_tokens=max_tokens, temperature=temp, top_p=top_p, presence_penalty=presence_penalty, frequency_penalty=frequency_penalty, respond_format=response_format, extra_body={ “top_k”:top_k,“repetition_penalty”:repetition_penalty,“min_p”:min_p } ) 如果流:对于 chat_completion_res 中的块:打印(chunk.choices[0].delta.content 或“”,end=""")否则:打印(chat_completion_res.choices[0].message.content)
  
  

Novita AI 彻底改变人工智能部署 DeepSeek R1 Turbo,提供 3 倍吞吐量 并支持以下高级功能 函数调用,现在可以使用 限时 20% 折扣. 无论你是在消费级电脑上运行精简模型 GPU滋味 RTX 4090 或部署具有企业级的全尺寸模型 H100 GPUs, Novita AI 提供无与伦比的灵活性。对于那些寻求轻松解决方案的人来说, Novita AI“ GPU 和API服务 提供完全优化的版本 DeepSeek R1 Turbo,与 基于代币的定价 配备 免费试用. 体验更高水平的 AI 性能 DeepSeek R1 Turbo—开始于 Novita AI

常见问题

什么是 DeepSeek R1 Turbo?

DeepSeek R1 Turbo 是 DeepSeek R1 的优化版本,提供 3 倍吞吐量,全面支持函数调用,以及 限时 20% 折扣 on Novita AI!

运行 DeepSeek R1 需要什么硬件?

全尺寸模型:需要企业级 GPU滋味 H100 为了获得最佳性能

我可以免费试用 DeepSeek R1 吗?

是的, Novita AI 提供 免费试用 通过其 API 平台为 DeepSeek R1 提供支持。

Novita AI 是助力您实现 AI 梦想的一体化云平台。集成 API、无服务器、 GPU 实例——您所需的经济高效的工具。无需任何基础设施,免费启动,即可将您的 AI 愿景变为现实。

推荐阅读


探索 Novita 的更多内容

订阅即可将最新帖子发送到您的电子邮箱。

发表评论

滚动到顶部

探索 Novita 的更多内容

立即订阅以继续阅读并访问完整档案。

继续阅读