Ling-2.6-1T Novita AI免费 API、SWE-Bench SOTA、1T 参数模型

Ling-2.6-1T 由 Novita AI — 1T 参数模型 API

大多数功能强大的开源模型都要求你做出选择:是追求纯粹的智能,还是追求代币效率。智能模型每次请求消耗的代币数量是智能模型的 3-5 倍。规模较小的非推理模型虽然降低了成本,但限制了功能。Ling-2.6-1T 的设计初衷就是为了打破这种权衡。

Ling-2.6-1T 是蚂蚁集团(inclusionAI)推出的一款万亿级综合旗舰模型,专为即时任务执行而设计。它基于……构建。 MLA + 混合线性注意力 该架构实现了卓越的智能令牌比:在基准测试中表现出色,同时输出令牌开销极低。在 AIME26 测试中,它显著优于其他非智能模型。在代理执行基准测试(SWE-bench Verified、BFCLv4、TAU2-Bench 和 Claw-Eval)中,它达到了开源软件的最高水平。现在由……独家支持 Novita AI 作为推理提供者。

简而言之:Ling-2.6-1T 为智能体工作负载提供了全面的前沿能力——复杂推理、工具使用、多步骤执行和长上下文指令跟踪——而成本仅为思维模型的一小部分。

Ling-2.6-1T是什么?

Ling-2.6-1T 是 Ling 的最新旗舰机型。 包容性人工智能蚂蚁集团人工智能研究部门(AntLingAGI)开发的这款产品,是一个拥有 1 万亿个参数的混合专家模型——迄今为止发布的最大的 FP8 训练基础模型——在超过 20 万亿个高质量标记上进行训练,并在后期阶段使用了超过 40% 的推理密集数据。

与那些在回答问题前输出冗长思维链的思维模型(如 DeepSeek-R1 和 QwQ)不同,Ling-2.6-1T 采用了一种“快速思维”机制:它将推理过程内化,而无需外化冗长的思维链。这使得输出的词元数量精简,同时保持了强大的分析深度。每个词元激活约 50 亿个参数,使得在 1T 规模下进行推理成为可能。

  • 结 构: MLA + 混合线性注意力机制,总参数量 1T,每个 token 约 50 亿个有效参数。
  • 上下文窗口: 262,144 个代币(通过 YaRN 绳索扩容),最大输出 32,768 个代币
  • 测试: FP8 混合精度,20T+ 个词元,>40% 推理密集数据
  • 范例: 快速思考——内化推理,无需冗长的思路链输出
  • 许可证: 麻省理工学院——完全开放权重
  • 库存: 由以下机构独家支持 Novita AI (OpenRouter 提供商)

主要特点:Ling-2.6-1T 的突出优势

卓越的智力与代币比率

思维模型虽然能带来令人印象深刻的结果,但也会导致代币消耗激增——在得到实际答案之前,需要消耗数百个推理代币。Ling-2.6-1T 在训练中期采用了进化链思维(Evo-CoT)算法,将推理过程内化而非外化。其结果是:在 AIME26(优于其他非思维模型)、LiveCodeBench 和 Omni-MATH 等基准测试中均取得了优异的成绩——而且无需为推理过程付费。根据官方模型卡,其智能输出效率与 GPT-5.4(非推理模型)相当,相比其前代产品 Ling-1T 实现了重大飞跃。对于高吞吐量的生产工作负载而言,这直接降低了成本。

开源代理执行最新技术

智能体工作负载需要的不仅仅是孤立的数学和编程——它们还需要工具的使用、多步骤执行以及在真实世界条件下可靠地遵循指令。Ling-2.6-1T 在关键的智能体基准测试中达到了开源软件的最高水平(根据 inclusionAI 模型卡):

  • SWE-bench 已验证 — 实际软件工程任务解决
  • BFCLv4 — Berkeley 函数调用排行榜 v4,复杂工具使用
  • TAU2-Bench — 长期智能体任务完成
  • 爪评估 — 多回合命令执行
  • 捏力台 — 复合代理能力评估

在 LiveCodeBench 测试(2024 年 8 月至 2025 年 5 月)中,其得分为 61.68 分,比 DeepSeek-V3.1 (48.02)、Kimi-K2-0905 (48.95) 和 GPT-5-main (48.57) 高出 13 分以上。在前端生成方面,ArtifactsBench 得分为 59.31 分,在该对比组中仅次于 Gemini-2.5-Pro(lowthink) 的 60.28 分(基于 inclusionAI 模型卡)。

长篇上下文 + 指令遵循

Ling-2.6-1T 拥有 262,144 个词元的上下文(YaRN 绳索扩展),单次调用即可处理完整的代码库、长文档或扩展的多轮智能体对话。在 MRCR 基准测试(上下文范围 16K–256K)中,它始终保持着较高的检索准确率——这对于处理长工具输出或文档语料库的智能体流水线至关重要。IFBench 得分 56.9%,表明其在扩展上下文下具有强大的复杂指令跟踪能力。

基准性能

来自独立测量的 人工分析 Ling-2.6-1T 的智能指数为 33.6,优于 495 个受测模型中的 73%,在开放权重的大型非推理模型类别中排名第二。以下是 inclusionAI 模型卡上的自报分数(与 DeepSeek-V3.1-terminus、Kimi-K2-0905、GPT-5-main 和 Gemini-2.5-Pro(lowthink) 进行比较),以及独立验证的 AA 分数。

数学与推理(根据 inclusionAI 模型卡)

基准Ling-2.6-1TDeepSeek-V3.1Kimi-K2-0905GPT-5-主程序Gemini-2.5-Pro*
艾梅2670.4255.2150.1659.4370.10
Omni-MATH74.4664.7762.4261.0972.02
光学数学57.6835.9935.8439.1642.77
金融推理87.4586.4484.8386.2886.65
BBEH47.3442.8634.8339.7529.08
KOR-Bench76.0073.7673.2070.5659.68
ARC-AGI-143.8114.6922.1914.0618.94
*Gemini-2.5-Pro(lowthink)。来源: inclusionAI 模型卡最后验证日期:2026年04月24日。

代码性能(按 inclusionAI 模型卡)

基准Ling-2.6-1TDeepSeek-V3.1Kimi-K2-0905GPT-5-主程序Gemini-2.5-Pro*
实时代码平台61.6848.0248.9548.5745.43
多种的77.9177.6873.5476.6671.48
CodeForces 评级19011582157411201675
全堆叠式卧推56.5555.4854.0050.9248.19
神器工作台59.3143.2944.8741.0460.28
辅助代码编辑83.6588.1685.3484.4089.85
*Gemini-2.5-Pro(lowthink)。来源: inclusionAI 模型卡上次验证时间:2026-04-24。注意:模型版本名称(例如“gpt-5-main”、“DeepSeek-V3.1-terminus”)由 inclusionAI 报告,可能与公开发布的版本不符。

代理执行基准(每个 inclusionAI 模型卡)

Ling-2.6-1T 在针对特定智能体的评估中达到了开源软件的最新水平。并非所有基准测试都公布了确切的竞争对手得分;结果以官方模型卡中的报告为准。

基准测量内容Ling-2.6-1T
SWE-bench 已验证实际的 GitHub 问题解决开源SOTA
BFCLv4复杂的多步骤函数/工具调用开源SOTA
TAU2-Bench长时程智能体任务完成开源SOTA
爪评估多回合指令执行开源SOTA
捏力台复合代理能力开源SOTA
IFBench复杂的指令56.9%
来源: inclusionAI 模型卡inclusionAI 声称其为“开源 SOTA”;但尚未提供独立的单项评分数据。上次验证时间:2026 年 04 月 24 日。

独立基准测试(人工分析)

米制Ling-2.6-1T笔记
AA 智力指数33.6优于 495 款车型中的 73%
AA编码索引33.0优于 78% 的型号
AA代理指数48.2优于 80% 的型号
GPQA 钻石75.2%研究生水平的科学推理
τ²-Bench 电信89.8%对话代理任务
IFBench56.9%遵循指令
输出速度67.7 吨/秒通过 Novita AI 在 OpenRouter 上
来源: 人工分析最后验证日期:2026年04月24日。

如何使用 Ling-2.6-1T(由……支持) Novita AI

选项 1:游乐场(无需代码)

立即体验该模型 novita.ai/models/model-detail/inclusionai-ling-2.6-1t 无需任何设置。可用于在将提示信息集成到应用程序之前快速测试提示信息。

选项 2:API(Python)

Ling-2.6-1T 完全兼容 OpenAI。请替换为您的 Novita API 密钥和模型 ID:

from openai import OpenAI

client = OpenAI(
    base_url="https://api.novita.ai/v3/openai",
    api_key="YOUR_NOVITA_API_KEY",
)

response = client.chat.completions.create(
    model="inclusionai/ling-2.6-1t",
    messages=[{"role": "user", "content": "Your prompt here"}],
    temperature=0.7,
    top_p=0.95,
)

print(response.choices[0].message.content)

获取 API 密钥 novita.ai/设定该模型还支持流式传输、通过 tool_use 进行函数调用以及结构化输出。

选项 3:第三方工具

建立 Novita AI Ling-2.6-1T 与 OpenAI 兼容,可与任何接受自定义基本 URL 的工具配合使用,包括 光标, 克劳德·科德, OpenWebUI, 浪链骆驼指数. 将基本 URL 设置为 https://api.novita.ai/v3/openai 并以此为模型 inclusionai/ling-2.6-1t.

使用案例

Ling-2.6-1T 结合了 1T 参数容量、快速思考模式和 262K 上下文,使其非常适合以下应用:

  • 编码代理: 这款软件在 CodeForces 上的评分为 1901,LiveCodeBench 得分也很高,足以应对竞技级别的编程任务。配合 Novita 的 Agent Sandbox,即可实现完全隔离的代码执行,无需管理基础设施。
  • 财务分析: FinanceReasoning 评分为 87.45(在 inclusionAI 模型卡的比较组中排名第一),使其适用于自动化报告分析、收益汇总和定量研究工作流程。
  • 前端生成: 混合语法-功能-美学训练奖励专门针对 UI 代码质量。ArtifactsBench 得分 59.31 分,在其对比组中排名第二,仅比 Gemini-2.5-Pro(lowthink) 低 0.97 分。
  • 长文档处理: 262,144 个标记的上下文可以在一次调用中处理数百页的文档、完整的存储库分析或扩展的法律/研究语料库。
  • 高容量生产 API: 非推理范式意味着可预测的令牌计数和更低的延迟波动——这在每天运行数千个请求时非常重要。

从 DeepSeek V3 或 Kimi K2 迁移?

如果您目前正在使用其他提供商提供的 DeepSeek V3 或 Kimi K2,切换到由以下平台支持的 Ling-2.6-1T: Novita AI 只需一行代码的更改——相同的 OpenAI 兼容 API,相同的请求格式。模型 ID 变为 inclusionai/ling-2.6-1t.

在编码任务方面,Ling-2.6-1T 在 LiveCodeBench 测试中优于 DeepSeek-V3.1 和 Kimi-K2-0905(分别为 61.68 分、48.02 分和 48.95 分),在数学推理方面,它在 AIME26 和 OptMATH 测试中也均领先。如果您的工作负载侧重于推理,但您不希望看到冗长的逻辑链,那么相比切换到思维模型,Ling-2.6-1T 是更简洁的升级方案。

定价

型号输入(美元/1万代币)输出(美元/1万代币)语境
Ling-2.6-1T(Novita AI)$0.30$2.50262,144
DeepSeek V3.2$0.28$0.42128
Qwen3-235B-A22B$0.455$1.82131
Kimi K2(OpenRouter)$0.57$2.30131
Novita AI 定价方式 novita.ai竞争对手定价 OpenRouter. 最后验证日期:2026年04月24日。

Ling-2.6-1T 的输出定价(2.50 美元/百万)高于 DeepSeek V3.2——但其在推理和编码任务上的基准测试性能显著更强。如果每次调用的令牌成本是主要限制因素, Ling-2.6-flash (104B 参数,7.4B 活动参数)是价格更低的同系列产品,也仅可通过以下方式获取: Novita AI.

免费套餐: Ling-2.6-1T 可通过以下方式免费获取: inclusionai/ling-2.6-1t:free OpenRouter 上的端点,由以下方独家提供: Novita AI此免费时段有限时,请查看当前可用情况。 openrouter.ai/inclusionai/ling-2.6-1t:free.

结语

底线: Ling-2.6-1T 目前是数学和编程基准测试中最强大的开源无推理模型,也是在需要 262K 上下文信息但又不想为冗长的思维链付费的情况下,最强大的开源选择。虽然它的单次交易成本并非最低,但对于复杂的推理任务而言,如果使用思维模型会增加成本,那么 Ling-2.6-1T 是目前最实用的前沿开源替代方案。

由以下机构独家支持 Novita AI — 唯一一家在 OpenRouter 上同时提供 Ling-2.6-1T 和 Ling-2.6-flash 的供应商 — 您无需管理 32 位设备,即可获得稳定的推理端点、99.9% 的正常运行时间和与 OpenAI 兼容的 APIGPU 自行进行最低限度的部署。

常见问题

Ling-2.6-1T是什么?

Ling-2.6-1T 是由蚂蚁集团(inclusionAI)开发的拥有 1 万亿参数的混合专家语言模型。它每个词元激活约 50 亿个参数,支持 262,144 个词元的上下文窗口,并被设计为一个快速思考、无需推理的模型——在基准测试中表现出色,且没有思维链开销。该模型采用 MIT 许可证,权重完全开源。

如何通过 API 访问 Ling-2.6-1T?

base_url="https://api.novita.ai/v3/openai" 以及 model="inclusionai/ling-2.6-1t" 在任何兼容 OpenAI 的客户端中。获取您的 API 密钥。 novita.ai/设定也可以通过 OpenRouter 使用相同的型号 ID 访问它。

Ling-2.6-1T 与 DeepSeek V3 相比如何?

根据用户自报的基准测试结果(inclusionAI 模型卡),Ling-2.6-1T 在 AIME26(70.42 对 55.21)、LiveCodeBench(61.68 对 48.02)和 ARC-AGI-1(43.81 对 14.69)测试中均优于 DeepSeek-V3.1。DeepSeek V3.2 在人工智能分析智能指数 (AII) 上的得分更高(42 对 34),但 Ling-2.6-1T 在价格相近(0.30 美元/百万输入)的情况下,提供了更大的上下文窗口(262K 对 128K)。

Ling-2.6-1T 的上下文窗口是什么?

262,144 个 token(通过 YaRN 绳索扩展,从原生 128K 扩展而来)。最大输出长度为 32,768 个 token。

Ling-2.6-1T 可以免费使用吗?

是的,暂时的。 inclusionai/ling-2.6-1t:free OpenRouter 上的端点由以下各方独家提供: Novita AI免费期有限时。付费版本可通过以下方式获取: Novita AI 输入代币价格为 0.30 美元/百万,输出代币价格为 2.50 美元/百万。

推荐文章


探索 Novita 的更多内容

订阅即可将最新帖子发送到您的电子邮箱。

发表评论

滚动到顶部

探索 Novita 的更多内容

立即订阅以继续阅读并访问完整档案。

继续阅读