大多数功能强大的开源模型都要求你做出选择:是追求纯粹的智能,还是追求代币效率。智能模型每次请求消耗的代币数量是智能模型的 3-5 倍。规模较小的非推理模型虽然降低了成本,但限制了功能。Ling-2.6-1T 的设计初衷就是为了打破这种权衡。
Ling-2.6-1T 是蚂蚁集团(inclusionAI)推出的一款万亿级综合旗舰模型,专为即时任务执行而设计。它基于……构建。 MLA + 混合线性注意力 该架构实现了卓越的智能令牌比:在基准测试中表现出色,同时输出令牌开销极低。在 AIME26 测试中,它显著优于其他非智能模型。在代理执行基准测试(SWE-bench Verified、BFCLv4、TAU2-Bench 和 Claw-Eval)中,它达到了开源软件的最高水平。现在由……独家支持 Novita AI 作为推理提供者。
简而言之:Ling-2.6-1T 为智能体工作负载提供了全面的前沿能力——复杂推理、工具使用、多步骤执行和长上下文指令跟踪——而成本仅为思维模型的一小部分。
Ling-2.6-1T是什么?
Ling-2.6-1T 是 Ling 的最新旗舰机型。 包容性人工智能蚂蚁集团人工智能研究部门(AntLingAGI)开发的这款产品,是一个拥有 1 万亿个参数的混合专家模型——迄今为止发布的最大的 FP8 训练基础模型——在超过 20 万亿个高质量标记上进行训练,并在后期阶段使用了超过 40% 的推理密集数据。
与那些在回答问题前输出冗长思维链的思维模型(如 DeepSeek-R1 和 QwQ)不同,Ling-2.6-1T 采用了一种“快速思维”机制:它将推理过程内化,而无需外化冗长的思维链。这使得输出的词元数量精简,同时保持了强大的分析深度。每个词元激活约 50 亿个参数,使得在 1T 规模下进行推理成为可能。
- 结 构: MLA + 混合线性注意力机制,总参数量 1T,每个 token 约 50 亿个有效参数。
- 上下文窗口: 262,144 个代币(通过 YaRN 绳索扩容),最大输出 32,768 个代币
- 测试: FP8 混合精度,20T+ 个词元,>40% 推理密集数据
- 范例: 快速思考——内化推理,无需冗长的思路链输出
- 许可证: 麻省理工学院——完全开放权重
- 库存: 由以下机构独家支持 Novita AI (OpenRouter 提供商)
主要特点:Ling-2.6-1T 的突出优势
卓越的智力与代币比率
思维模型虽然能带来令人印象深刻的结果,但也会导致代币消耗激增——在得到实际答案之前,需要消耗数百个推理代币。Ling-2.6-1T 在训练中期采用了进化链思维(Evo-CoT)算法,将推理过程内化而非外化。其结果是:在 AIME26(优于其他非思维模型)、LiveCodeBench 和 Omni-MATH 等基准测试中均取得了优异的成绩——而且无需为推理过程付费。根据官方模型卡,其智能输出效率与 GPT-5.4(非推理模型)相当,相比其前代产品 Ling-1T 实现了重大飞跃。对于高吞吐量的生产工作负载而言,这直接降低了成本。
开源代理执行最新技术
智能体工作负载需要的不仅仅是孤立的数学和编程——它们还需要工具的使用、多步骤执行以及在真实世界条件下可靠地遵循指令。Ling-2.6-1T 在关键的智能体基准测试中达到了开源软件的最高水平(根据 inclusionAI 模型卡):
- SWE-bench 已验证 — 实际软件工程任务解决
- BFCLv4 — Berkeley 函数调用排行榜 v4,复杂工具使用
- TAU2-Bench — 长期智能体任务完成
- 爪评估 — 多回合命令执行
- 捏力台 — 复合代理能力评估
在 LiveCodeBench 测试(2024 年 8 月至 2025 年 5 月)中,其得分为 61.68 分,比 DeepSeek-V3.1 (48.02)、Kimi-K2-0905 (48.95) 和 GPT-5-main (48.57) 高出 13 分以上。在前端生成方面,ArtifactsBench 得分为 59.31 分,在该对比组中仅次于 Gemini-2.5-Pro(lowthink) 的 60.28 分(基于 inclusionAI 模型卡)。
长篇上下文 + 指令遵循
Ling-2.6-1T 拥有 262,144 个词元的上下文(YaRN 绳索扩展),单次调用即可处理完整的代码库、长文档或扩展的多轮智能体对话。在 MRCR 基准测试(上下文范围 16K–256K)中,它始终保持着较高的检索准确率——这对于处理长工具输出或文档语料库的智能体流水线至关重要。IFBench 得分 56.9%,表明其在扩展上下文下具有强大的复杂指令跟踪能力。
基准性能
来自独立测量的 人工分析 Ling-2.6-1T 的智能指数为 33.6,优于 495 个受测模型中的 73%,在开放权重的大型非推理模型类别中排名第二。以下是 inclusionAI 模型卡上的自报分数(与 DeepSeek-V3.1-terminus、Kimi-K2-0905、GPT-5-main 和 Gemini-2.5-Pro(lowthink) 进行比较),以及独立验证的 AA 分数。
数学与推理(根据 inclusionAI 模型卡)
| 基准 | Ling-2.6-1T | DeepSeek-V3.1 | Kimi-K2-0905 | GPT-5-主程序 | Gemini-2.5-Pro* |
|---|---|---|---|---|---|
| 艾梅26 | 70.42 | 55.21 | 50.16 | 59.43 | 70.10 |
| Omni-MATH | 74.46 | 64.77 | 62.42 | 61.09 | 72.02 |
| 光学数学 | 57.68 | 35.99 | 35.84 | 39.16 | 42.77 |
| 金融推理 | 87.45 | 86.44 | 84.83 | 86.28 | 86.65 |
| BBEH | 47.34 | 42.86 | 34.83 | 39.75 | 29.08 |
| KOR-Bench | 76.00 | 73.76 | 73.20 | 70.56 | 59.68 |
| ARC-AGI-1 | 43.81 | 14.69 | 22.19 | 14.06 | 18.94 |
代码性能(按 inclusionAI 模型卡)
| 基准 | Ling-2.6-1T | DeepSeek-V3.1 | Kimi-K2-0905 | GPT-5-主程序 | Gemini-2.5-Pro* |
|---|---|---|---|---|---|
| 实时代码平台 | 61.68 | 48.02 | 48.95 | 48.57 | 45.43 |
| 多种的 | 77.91 | 77.68 | 73.54 | 76.66 | 71.48 |
| CodeForces 评级 | 1901 | 1582 | 1574 | 1120 | 1675 |
| 全堆叠式卧推 | 56.55 | 55.48 | 54.00 | 50.92 | 48.19 |
| 神器工作台 | 59.31 | 43.29 | 44.87 | 41.04 | 60.28 |
| 辅助代码编辑 | 83.65 | 88.16 | 85.34 | 84.40 | 89.85 |
代理执行基准(每个 inclusionAI 模型卡)
Ling-2.6-1T 在针对特定智能体的评估中达到了开源软件的最新水平。并非所有基准测试都公布了确切的竞争对手得分;结果以官方模型卡中的报告为准。
| 基准 | 测量内容 | Ling-2.6-1T |
|---|---|---|
| SWE-bench 已验证 | 实际的 GitHub 问题解决 | 开源SOTA |
| BFCLv4 | 复杂的多步骤函数/工具调用 | 开源SOTA |
| TAU2-Bench | 长时程智能体任务完成 | 开源SOTA |
| 爪评估 | 多回合指令执行 | 开源SOTA |
| 捏力台 | 复合代理能力 | 开源SOTA |
| IFBench | 复杂的指令 | 56.9% |
独立基准测试(人工分析)
| 米制 | Ling-2.6-1T | 笔记 |
|---|---|---|
| AA 智力指数 | 33.6 | 优于 495 款车型中的 73% |
| AA编码索引 | 33.0 | 优于 78% 的型号 |
| AA代理指数 | 48.2 | 优于 80% 的型号 |
| GPQA 钻石 | 75.2% | 研究生水平的科学推理 |
| τ²-Bench 电信 | 89.8% | 对话代理任务 |
| IFBench | 56.9% | 遵循指令 |
| 输出速度 | 67.7 吨/秒 | 通过 Novita AI 在 OpenRouter 上 |
如何使用 Ling-2.6-1T(由……支持) Novita AI
选项 1:游乐场(无需代码)
立即体验该模型 novita.ai/models/model-detail/inclusionai-ling-2.6-1t 无需任何设置。可用于在将提示信息集成到应用程序之前快速测试提示信息。
选项 2:API(Python)
Ling-2.6-1T 完全兼容 OpenAI。请替换为您的 Novita API 密钥和模型 ID:
from openai import OpenAI
client = OpenAI(
base_url="https://api.novita.ai/v3/openai",
api_key="YOUR_NOVITA_API_KEY",
)
response = client.chat.completions.create(
model="inclusionai/ling-2.6-1t",
messages=[{"role": "user", "content": "Your prompt here"}],
temperature=0.7,
top_p=0.95,
)
print(response.choices[0].message.content)
获取 API 密钥 novita.ai/设定该模型还支持流式传输、通过 tool_use 进行函数调用以及结构化输出。
选项 3:第三方工具
建立 Novita AI Ling-2.6-1T 与 OpenAI 兼容,可与任何接受自定义基本 URL 的工具配合使用,包括 光标, 克劳德·科德, OpenWebUI, 浪链和 骆驼指数. 将基本 URL 设置为 https://api.novita.ai/v3/openai 并以此为模型 inclusionai/ling-2.6-1t.
使用案例
Ling-2.6-1T 结合了 1T 参数容量、快速思考模式和 262K 上下文,使其非常适合以下应用:
- 编码代理: 这款软件在 CodeForces 上的评分为 1901,LiveCodeBench 得分也很高,足以应对竞技级别的编程任务。配合 Novita 的 Agent Sandbox,即可实现完全隔离的代码执行,无需管理基础设施。
- 财务分析: FinanceReasoning 评分为 87.45(在 inclusionAI 模型卡的比较组中排名第一),使其适用于自动化报告分析、收益汇总和定量研究工作流程。
- 前端生成: 混合语法-功能-美学训练奖励专门针对 UI 代码质量。ArtifactsBench 得分 59.31 分,在其对比组中排名第二,仅比 Gemini-2.5-Pro(lowthink) 低 0.97 分。
- 长文档处理: 262,144 个标记的上下文可以在一次调用中处理数百页的文档、完整的存储库分析或扩展的法律/研究语料库。
- 高容量生产 API: 非推理范式意味着可预测的令牌计数和更低的延迟波动——这在每天运行数千个请求时非常重要。
从 DeepSeek V3 或 Kimi K2 迁移?
如果您目前正在使用其他提供商提供的 DeepSeek V3 或 Kimi K2,切换到由以下平台支持的 Ling-2.6-1T: Novita AI 只需一行代码的更改——相同的 OpenAI 兼容 API,相同的请求格式。模型 ID 变为 inclusionai/ling-2.6-1t.
在编码任务方面,Ling-2.6-1T 在 LiveCodeBench 测试中优于 DeepSeek-V3.1 和 Kimi-K2-0905(分别为 61.68 分、48.02 分和 48.95 分),在数学推理方面,它在 AIME26 和 OptMATH 测试中也均领先。如果您的工作负载侧重于推理,但您不希望看到冗长的逻辑链,那么相比切换到思维模型,Ling-2.6-1T 是更简洁的升级方案。
定价
| 型号 | 输入(美元/1万代币) | 输出(美元/1万代币) | 语境 |
|---|---|---|---|
| Ling-2.6-1T(Novita AI) | $0.30 | $2.50 | 262,144 |
| DeepSeek V3.2 | $0.28 | $0.42 | 128 |
| Qwen3-235B-A22B | $0.455 | $1.82 | 131 |
| Kimi K2(OpenRouter) | $0.57 | $2.30 | 131 |
Ling-2.6-1T 的输出定价(2.50 美元/百万)高于 DeepSeek V3.2——但其在推理和编码任务上的基准测试性能显著更强。如果每次调用的令牌成本是主要限制因素, Ling-2.6-flash (104B 参数,7.4B 活动参数)是价格更低的同系列产品,也仅可通过以下方式获取: Novita AI.
免费套餐: Ling-2.6-1T 可通过以下方式免费获取: inclusionai/ling-2.6-1t:free OpenRouter 上的端点,由以下方独家提供: Novita AI此免费时段有限时,请查看当前可用情况。 openrouter.ai/inclusionai/ling-2.6-1t:free.
结语
底线: Ling-2.6-1T 目前是数学和编程基准测试中最强大的开源无推理模型,也是在需要 262K 上下文信息但又不想为冗长的思维链付费的情况下,最强大的开源选择。虽然它的单次交易成本并非最低,但对于复杂的推理任务而言,如果使用思维模型会增加成本,那么 Ling-2.6-1T 是目前最实用的前沿开源替代方案。
由以下机构独家支持 Novita AI — 唯一一家在 OpenRouter 上同时提供 Ling-2.6-1T 和 Ling-2.6-flash 的供应商 — 您无需管理 32 位设备,即可获得稳定的推理端点、99.9% 的正常运行时间和与 OpenAI 兼容的 APIGPU 自行进行最低限度的部署。
常见问题
Ling-2.6-1T是什么?
Ling-2.6-1T 是由蚂蚁集团(inclusionAI)开发的拥有 1 万亿参数的混合专家语言模型。它每个词元激活约 50 亿个参数,支持 262,144 个词元的上下文窗口,并被设计为一个快速思考、无需推理的模型——在基准测试中表现出色,且没有思维链开销。该模型采用 MIT 许可证,权重完全开源。
如何通过 API 访问 Ling-2.6-1T?
米 base_url="https://api.novita.ai/v3/openai" 以及 model="inclusionai/ling-2.6-1t" 在任何兼容 OpenAI 的客户端中。获取您的 API 密钥。 novita.ai/设定也可以通过 OpenRouter 使用相同的型号 ID 访问它。
Ling-2.6-1T 与 DeepSeek V3 相比如何?
根据用户自报的基准测试结果(inclusionAI 模型卡),Ling-2.6-1T 在 AIME26(70.42 对 55.21)、LiveCodeBench(61.68 对 48.02)和 ARC-AGI-1(43.81 对 14.69)测试中均优于 DeepSeek-V3.1。DeepSeek V3.2 在人工智能分析智能指数 (AII) 上的得分更高(42 对 34),但 Ling-2.6-1T 在价格相近(0.30 美元/百万输入)的情况下,提供了更大的上下文窗口(262K 对 128K)。
Ling-2.6-1T 的上下文窗口是什么?
262,144 个 token(通过 YaRN 绳索扩展,从原生 128K 扩展而来)。最大输出长度为 32,768 个 token。
Ling-2.6-1T 可以免费使用吗?
是的,暂时的。 inclusionai/ling-2.6-1t:free OpenRouter 上的端点由以下各方独家提供: Novita AI免费期有限时。付费版本可通过以下方式获取: Novita AI 输入代币价格为 0.30 美元/百万,输出代币价格为 2.50 美元/百万。
推荐文章
- Ling-2.6-flash:340 个代币/秒,效率提升约 7 倍 | Novita AI — 小兄弟 — 当速度比规模更重要时。
- 哪种推理提供商最适合人工智能代理? — 如何为智能体工作负载选择推理 API。
- 2026 年开源模型顶级推理 API 提供商 — 对各品牌提供的无差别级车型进行全面比较。
探索 Novita 的更多内容
订阅即可将最新帖子发送到您的电子邮箱。





