Deepseek R1 Distill Qwen 32B 访问指南:本地还是 API?

如何访问 Deepseek R1 Distill Qwen 32B

关键亮点

强大而高效:以减少的资源需求匹配更大模型的性能。

基准领导者:在 AIME 2024 和 SWE-bench Verified 中表现出色,超越 OpenAI-o1-mini。

多语言支持:处理 29 多种语言,包括中文、英语和法语。

高级功能:支持长文本(8K+个标记)、结构化输出和角色扮演场景。

易于访问:可通过以下方式获取 奥拉马 用于本地部署或 Novita AI API 为整合。

推荐您的朋友 Novita AI 你们俩都会赚 10 美元 LLM API 积分——总奖励高达 500 美元。

为了支持开发者社区,Qwen2.5-7B、Qwen 3 0.6B、Qwen 3 1.7B、Qwen 3 4B 目前可在 Novita AI.

qwen 2.5 7b

DeepSeek R1 Distill Qwen 32B 是一款尖端的精简模型,能够以显著降低的硬件要求提供更大规模模型的强大功能。其经过精细调优的架构带来了卓越的性能,在基准测试中始终超越 OpenAI-o1-mini 等模型。该模型专为高效和易用性而设计,支持本地部署和无缝 API 集成,是开发者、研究人员和企业的理想之选。

Deepseek R1 Distill Qwen 32B 基础介绍

型号信息

基本信息

型号尺寸

32.8B

开源

卓越

变压器

语言支持

支持超过 29 种语言,包括:

中文版 英语 法语版 西班牙语 葡萄牙语 德语版 意大利语版 俄语 日语版 韩语版 越南语 泰国 阿拉伯语 和更多…

关键亮点

  • 在指令跟踪和生成长文本(超过 8K 个标记)方面有显著改进。
  • 增强对结构化数据(例如表格)的理解并生成结构化输出,尤其是 JSON。
  • 对不同的系统提示具有更强的适应能力,改善了聊天机器人的角色扮演实现和条件设置。

多式联运能力

支持文本到文本的转换。

培训实施

使用 DeepSeek R2.5 作为老师对 Qwen 32 1B 进行微调,以实现与更大模型相似的性能。

DeepSeek 在将大型 R1 模型提炼到其他开源模型方面确实取得了非凡的成就。尤其是与 Qwen-32B 的融合,似乎在各个基准测试中都取得了惊人的提升,并使其成为 VRAM 较少用户的首选模型,与 LLama-70B 提炼相比,其整体效果几乎达到了最佳。轻松成为本地计算的当前 SOTA LLMs,即使在消费类硬件上也应该具有相当好的性能。

基准

基准DeepSeek-R1-32BOpenAI-o1-mini其他型号
爱美202472.6%63.6%Llama-70B:70.0%,QwQ-32B:50.0%
代码部队71.5%60.0%Llama-70B:57.5%,QwQ-32B:54.5%
GPQA 钻石62.1%60.0%Llama-70B:65.2%,QwQ-32B:54.5%
数学-50075.7%90.0%Llama-70B:94.5%,QwQ-32B:90.6%
百万美元90.8%88.5%Llama-70B:91.8%,QwQ-32B:90.6%
SWE-bench 已验证49.2%36.8%Llama-70B:57.5%,QwQ-32B:41.6%

Deepseek R1 Distill Qwen 32B 的优势在于 爱美2024 以及 SWE-bench 已验证,在某些任务上略胜于 OpenAI-o1-mini,但在需要高级推理或数学能力的基准测试中,总体上落后于 Deepseek R1 Lla​​ma 70B 等较大的模型。

如何在本地访问 Deepseek R1 Distill Qwen 32B

硬件要求

型号尺寸: 73.21 GB

  • 1 × H100(80GB): 高性能 GPU 为了训练。
  • 1 × A100(80GB): 高内存 GPU 对于大型数据集。
  • 2×L40(96GB): 高级推理 GPU具有增强记忆力。
  • 4×RTX 4090(96GB): 大功率 GPU用于分布式任务。

分步安装指南

# 指南:通过 Ollama 安装和使用 DeepSeek-R1 # 1. 安装 Ollama # 访问 Ollama 网站,下载并安装适合您操作系统的版本:# https://ollama.ai/ # 2. 下载 DeepSeek-R1 模型 # 打开终端并运行以下命令下载模型 # (以 7B 参数版本为例):ollama run deepseek-r1:7b # 等待下载完成。所需时间取决于您的网络速度。# 3. 验证安装并启动模型 # 验证模型是否已成功下载:ollama list # 确保“deepseek-r1”出现在列表中。# 启动 32B 版本的模型:ollama run deepseek-r1:32b # 4. 使用示例 # 提出查询:>>>“用简单的术语解释量子计算。”# 生成代码:>>>“编写一个 Python 函数来计算斐波那契数列。”

本地部署的挑战

  • 硬件限制:资源需求高,升级昂贵。
  • 型号尺寸:存储空间大(例如 70+ GB),下载速度慢。
  • 操作系统:依赖性和操作系统问题。
  • 性能优化:延迟、批处理和并行性挑战。
  • 内存管理: GPU 内存限制和核外执行权衡。
  • 维护:频繁更新和兼容性问题。
  • 安保防护:确保本地环境中的数据隐私。
  • 文件记录:支持有限且故障排除困难。
本地部署的挑战

如何通过以下方式访问 Deepseek R1 Distill Qwen 32B Novita AI

Novita AI 是一个 AI 云平台,它为开发人员提供了一种使用我们简单的 API 轻松部署 AI 模型的方法,同时还提供经济实惠且可靠的 GPU 用于构建和扩展的云。

步骤 1:登录并访问模型库

登录您的帐户并点击 模型库 按钮。

登录并访问模型库

步骤 2:选择您的型号

浏览可用的选项并选择适合您需求的模型。

选择您的型号

第 3 步:开始免费试用

开始免费试用,探索所选型号的功能。

开始您的免费试用

步骤 4:获取您的 API 密钥

为了通过 API 进行身份验证,我们将为您提供一个新的 API 密钥。进入“设置”页面,您可以按照图中所示复制 API 密钥。

获取 API 密钥

步骤 5:安装 API

使用特定于您的编程语言的包管理器安装 API。

安装 api

安装完成后,将必要的库导入到你的开发环境中。使用你的 API 密钥初始化 API,即可开始与 Novita AI LLM。这是 Python 用户使用聊天完成 API 的示例。

从 openai 导入 OpenAI 客户端 = OpenAI(base_url="https://api.novita.ai/v3/openai", api_key="<你的 Novita AI API Key>", ) model = "deepseek/deepseek-r1-distill-qwen-32b" stream = True # 或 False max_tokens = 2048 system_content = """做一个有用的助手""" temperature = 1 top_p = 1 min_p = 0 top_k = 50 presence_penalty = 0 frequency_penalty = 0 repetition_penalty = 1 response_format = { "type": "text" } chat_completion_res = client.chat.completions.create( model=model, messages=[ { "role": "system", "content": system_content, }, { "role": "user", "content": "Hi there!", } ], stream=stream, max_tokens=max_tokens, temperature=temp, top_p=top_p, presence_penalty=presence_penalty, frequency_penalty=frequency_penalty, respond_format=response_format,extra_body={ “top_k”:top_k,“repetition_penalty”:repetition_penalty,“min_p”:min_p })如果流:对于chat_completion_res中的块:打印(chunk.choices[0].delta.content或“”,end="”)否则:打印(chat_completion_res.choices[0].message.content)
  
  

哪些方法适合您?

哪些方法适合您?

DeepSeek R1 Distill Qwen 32B 该模型是一款先进的本地语言模型,在指令遵循、结构化数据处理和多语言支持方面表现出色。它使用 DeepSeek R1 作为教师模型进行微调,确保了其效率,非常适合研究人员、开发者和企业使用。尽管对硬件有一定要求,但它在性能和易用性之间取得了平衡,在以下基准测试中表现出色: 爱美2024 以及 SWE-bench 已验证.

常見問題解答

DeepSeek R1 Distill Qwen 32B 的主要功能是什么?

多语言支持 29 多种语言。
处理长文本(8K+ 个标记)和 JSON 等结构化数据。
支持文本到文本的转换和高级角色扮演场景。

哪些基准突出了其性能?

爱美2024:准确率为 72.6%(优于 OpenAI-o1-mini)。
SWE-bench 已验证:准确率49.2%(领先于Llama-70B)。
在其他基准测试中表现一致,例如 数学-500 以及 百万美元.

硬件要求是什么?

型号尺寸: 73.21 GB.
首推最高性价比 GPUs:1 × H100 (80GB) 或 A100 (80GB)。
2×L40(96GB)或4×RTX 4090(96GB)。

Novita AI 是助力您实现 AI 梦想的一体化云平台。集成 API、无服务器、 GPU 实例——您所需的经济高效的工具。无需任何基础设施,免费启动,即可将您的 AI 愿景变为现实。

推荐阅读


探索 Novita 的更多内容

订阅即可将最新帖子发送到您的电子邮箱。

发表评论

滚动到顶部

探索 Novita 的更多内容

立即订阅以继续阅读并访问完整档案。

继续阅读