「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

151次阅读
没有评论

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

又一家中国量化公司杀疯了

衡宇 发自 凹非寺

量子位 | 公众号 QbitAI

又一个中国新模型被推到聚光灯下,刷屏国内外科技圈。

IQuest-Coder-V1模型系列,看起来真的很牛。

在最新版SWE-Bench Verified榜单中,40B参数版本的IQuest-Coder取得了81.4%的成绩,这个成绩甚至超过了Claude Opus-4.5和GPT-5.2(这俩模型没有官方资料,但外界普遍猜测参数规模在千亿-万亿级)。

Oh~Tiny Core, Titan Power。

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

好,看到这里我盲猜很多人肯定已经开始边摇头边笑了。

毕竟这年头,benchmark的权威犹在,但说服力似乎已经大不如前了。

那咱们就看看这个模型跑出来的case——

Prompt:编写一个网页来展示一个逼真的太阳系模拟。

然后你将得到:

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

可以自由切换各种视角,让画面暂停、放大,调整公转速度也ok。

选中具体的行星,还会跳出相应的名字和简单介绍。

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

目前,这套代码大模型系列已经在GitHub和抱抱脸上开源

有一个重点一定要划!!!

这个模型团队IQuest,和DeepSeek团队一个路数,都出自中国的量化私募。

背后公司就是北京版幻方量化——九坤投资

(两家公司都是业内公认的量化私募头部)

、Reddit等平台上,关于IQuest-Coder的消息和对中国量化公司杀入AI模型战场的讨论已经满天飞了。

有网友一脸unbelievable地问出了令他诧异的问题:

中国量化公司到底吸纳了些什么人才,才能把模型训练成这样啊???

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

Ok,一起来看看这套模型的详细情况吧~

IQuest-Coder-V1系列

从定位上看,IQuest-Coder-V1是一套覆盖多个参数规模与使用场景的家族版本,专注于代码生成、代码理解与软件工程任务的模型系列

参数有7B、14B和40B的,每个规模均提供Instruct和Thinking两种版本。

其中,Instruct偏向指令跟随与工程使用,更高效;Thinking强化复杂推理和多步问题拆解,响应时间更长。

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

特别提醒大家注意一下,40B参数规模的IQuest-Coder-V1额外提供了Loop版本,用于探索更高的参数利用效率。

与计算成本相似的模型相比,IQuest-Coder-V1-40B-Loop的HBM和KV Cache开销显著降低,而吞吐量大幅提升。

仅增加约5%的训练成本,Loop架构下,40B模型达到数百亿参数MoE模型的水平。

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

在架构设计上,IQuest-Coder-V1系列强调了“工程友好”和“长上下文可用性”。

官方在GitHub上给出的四点架构特性分别是:

  • 分组查询注意力(Grouped Query Attention,GQA)以实现高效推理
  • 原生支持128K上下文长度
  • 词表大小:76800个token
  • 循环变体采用了具有共享参数的循环Transformer设计,该设计在两个迭代过程中保持一致。

首先说说GQA的引入。

通过减少KV头数量来降低推理阶段的显存占用和计算压力,对长上下文场景超级友好。

其次,模型原生支持128K上下文长度。这就让模型有能力直接处理完整代码仓库、跨文件依赖以及大规模工程上下文。

第三,76800个token的词表大小,更贴近真实代码环境中频繁出现的标识符、路径名和符号组合。

最后,在Loop变体中,模型采用了具有跨两次迭代共享参数的循环Transformer设计,用重复计算换取更高的参数利用率,在不线性扩大模型规模的前提下提升性能。

作者刻意指出,这和早期Parallel Loop Transformer不同,去掉了token shifting和inference trick,更强调推理阶段的稳定性。

这些特性组合在一起,有利于模型在真实软件工程场景中跑得更好

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

来看官方展示的更多case。

Prompt 1:构建一个粒子-文本动画,满足以下要求。

  • 文本采样:将给定文本(例如,IQuest)在 Canvas 上转换为由数百个小粒子组成的点阵。
  • 状态:每个粒子都有一个当前位置和一个目标位置(形成文本)。
  • 交互式物理效果:当鼠标靠近时相互排斥和散开;当鼠标移开时平滑地弹回。
  • 视觉效果与缓动:随机/渐变颜色,用于整体运动的缓动效果。
「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

Prompt 2:构建一个实时像素沙盒游戏

通过按钮切换沙子、水、石头和酸液;在画布上涂画可生成具有不同颜色的元素;大规模更新依然流畅;元素会自然下落并流动。

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

Prompt 3:构建一个完整的单文件HTML5 Canvas太空射击游戏,具有复古霓虹美学和明显的战斗反馈。

  • 视觉风格:黑色背景,高饱和度霓虹几何形状,街机感。
  • 控制:WASD移动;两种瞄准/炮塔模式(鼠标跟随,或按R键旋转炮塔)。
  • 射击:带完整视觉效果的自动射击太空飞船。
  • 反馈:击杀时,出现粒子爆炸效果;受到伤害时,屏幕会震动。
  • 敌人:普通士兵/奇袭者/重型坦克,以及Boss战。
  • 进阶:按P键能升级火力。
「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

Prompt 4:基于鸟群算法的仿生鸟/鱼群体模拟,拥有150个以上的自主Agent,有实时调节功能。

  • 核心规则:分离(避免碰撞)、对齐(速度匹配)和内聚(群体中心)。
  • 实时面板:调整分离/对齐/凝聚权重(0-3)、视觉半径(20-150 像素)和最大速度。
  • 交互:鼠标充当捕食者,使附近的智能体散开。
  • 渲染:在深色背景下,以运动方向旋转的霓虹三角形和发光轨迹。
  • 工具:FPS 计数器和暂停/继续(空格键)。
「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

与众不同的“代码流多阶段训练”训练策略

IQuest-Coder的训练流程如下——

预训练阶段先用通用数据和大规模代码数据打底,然后通过高质量代码annealing强化基础代码表征。

中期训练阶段第一次明确引入reasoning、agent trajectory和长上下文代码,并且分32K和128K两个尺度逐步推进。

最终post-training阶段,模型被明确分流成instruct路线和thinking路线,分别用不同目标函数和RL方式收敛。

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

官方强调,IQuest-Coder-V1系列采用了与传统单一静态源代码训练不同的训练策略。

称之为code-flow multi-stage training

与大量代码模型侧重从静态代码片段中学习不同,这套方法强调从代码的演化过程中学习。

团队专门设计了基于项目生命周期的triplet数据构造方式,用 (R_old, Patch, R_new) 这样的结构,让模型看到稳定期代码、变更内容以及变更后的结果。

而且刻意避开项目早期和后期,只取40%–80%生命周期区间。

这一步实际上把“软件工程经验”显式编码进了训练数据里

所以模型看到的并不只是某一时刻的完成态代码,还包括修改前后的差异、提交历史中的逻辑变化,以及真实工程中反复试错和修正的痕迹。

也就是说模型被训练得能够捕捉软件逻辑的动态演变。

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

不少网友猜测,这就是IQuest-Coder-V1在多个软件工程类评测中表现突出的重要原因之一。

这套模型成绩确实亮眼。

  • SWE-Bench Verified:81.4%
  • BigCodeBench:49.9%
  • LiveCodeBench v6:81.1%
「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

下面这张图体现得更直观一点,IQuest-Coder在八个代码、Agentic相关榜单上都独占鳌头。

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

不过,GitHub上白纸黑字写着,模型可以生成代码,但不能执行,始终在沙盒环境中验证输出结果。

部署方面,官方信息显示,不管是基础版本还是Loop版本,都支持单卡H20推理。

其Int4版本可在单张消费级3090/4090 GPU上部署。

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

有网友表示,非Loop版本的模型似乎采用的是阿里Qwen2的架构。

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

随着关注度上升,质疑也同步出现。

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

九坤投资公司是谁?

好,最后我们来认识一下IQuest-Coder背后的公司,九坤投资(Ubiquant Holding Limited)。

公司成立于2012年,是中国较早一批专注量化投资和高频交易的私募机构之一,目前管理规模在数百亿元人民币,和幻方同属于公认的国内量化私募头部公司。

九坤主要办公地在北京,3周前开设了新加坡办公室。

联合创始人王琛,2000年考入清华大学,获得数学物理学士学位和理论计算机博士学位,博士期间师从图灵奖得主姚期智院士。

博士毕业后,王琛就职于美国顶级对冲基金Millennium,后创业担任九坤投资联合创始人、CEO。

联合创始人姚齐聪,2002年考入北京大学数学系,获得数学学士和金融数学硕士学位。

硕士毕业后进入Millennium,后与王琛共同创业,主要负责九坤投研体系搭建、量化策略开发和风险管理,被视为公司策略和风控体系的核心设计者之一。

九坤的投研与技术团队人数超过百人,90%以上毕业于清华、北大、复旦、斯坦福等国内外知名高校,博士占比超过60%。

公开信息显示,这家公司目前也倾向于从全球顶尖高校招募具有计算机、数学、物理、统计学等背景的应届毕业生。

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

在AI领域,幻方更早凭DeepSeek站到台前。

不过查询有关资料发现,此前九坤也很注重AI技术这一块

目前,九坤的IT和算力建设位居国内量化机构前三,并建立了数据实验室(DATA LAB)、人工智能实验室(AI LAB)等多个前沿实验室。

本次发布的IQuest-Coder就出自其发起设立的独立研究平台至知创新研究院。

倒也不全是为了把AI用在金融市场预测和交易决策啦——前段时间(2025年12月16日),九坤已经推出过通用推理模型URM。

该模型在ARC-AGI正确率为53.8%,当允许多次尝试时,URM的成功率能达到85%以上;在更困难的ARC-AGI 2上也拿到了16.0%。

Paper最后附上了IQuest-Coder团队的成员名单。

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

挺长的,就不一一介绍了。

不过我们发现这篇paper的核心作者层,和《Scaling Laws for Code》《CodeSimpleQA》《From Code Foundation Models to Agents and Applications》作者阵容重合度非常高。

所以这里稍微展开介绍一下Core Contributor的几位成员。

(注:IQuestLab团队成员很多没有公开个人档案,我们这里放出可寻找到的公开资料)

Jian Yang,谷歌学术被引量超过1.6万。

此前应该在Qwen 2.5和Qwen 3团队待过很长一段时间,2025年起开始在九坤投资发表论文。

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

Zhengmao Ye,本科毕业于西南交通大学,在四川大学获得计算机科学硕士学位。

此前,他曾在华为和商汤科技担任过技术工作人员。

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

你没看错,8位Core Contributor就找到了2位的公开资料,真的尽力了.gif

另外,paper的通讯作者,是九坤人工智能实验室首席研究员和负责人Bryan Dai

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

Paper地址:
file:///Users/hengknows/Downloads/IQuest_Coder_Technical_Report%20(1).pdf
参考资料:
[1]https://x.com/zephyr_z9/status/2006579658972868988?s=20
[2]https://github.com/IQuestLab/IQuest-Coder-V1?tab=readme-ov-file
[3]https://iquestlab.github.io/#/
[4]https://www.reddit.com/r/LocalLLaMA/comments/1q0x19t/anyone_tried_iquestcoderv1_yet_the_40b_numbers/

版权所有,未经授权不得以任何形式转载及使用,违者必究。

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 0
评论(没有评论)

文心AIGC

2026 年 1 月
 1234
567891011
12131415161718
19202122232425
262728293031  
文心AIGC
文心AIGC
人工智能ChatGPT,AIGC指利用人工智能技术来生成内容,其中包括文字、语音、代码、图像、视频、机器人动作等等。被认为是继PGC、UGC之后的新型内容创作方式。AIGC作为元宇宙的新方向,近几年迭代速度呈现指数级爆发,谷歌、Meta、百度等平台型巨头持续布局
文章搜索
热门文章
清库存!DeepSeek突然补全R1技术报告,训练路径首次详细公开

清库存!DeepSeek突然补全R1技术报告,训练路径首次详细公开

清库存!DeepSeek突然补全R1技术报告,训练路径首次详细公开 Jay 2026-01-08 20:18:...
2025最大AI赢家的凡尔赛年度总结,哈萨比斯Jeff Dean联手执笔

2025最大AI赢家的凡尔赛年度总结,哈萨比斯Jeff Dean联手执笔

2025最大AI赢家的凡尔赛年度总结,哈萨比斯Jeff Dean联手执笔 鹭羽 2025-12-24 09:1...
AI Coding新王登场!MiniMax M2.1拿下多语言编程SOTA

AI Coding新王登场!MiniMax M2.1拿下多语言编程SOTA

AI C++oding新王登场!MiniMax M2.1拿下多语言编程SOTA 克雷西 2025-12-24 ...
智能体落地元年,Agent Infra是关键一环|对话腾讯云&Dify

智能体落地元年,Agent Infra是关键一环|对话腾讯云&Dify

智能体落地元年,Agent Infra是关键一环|对话腾讯云&Dify 鹭羽 2025-12-23 1...
最新评论
ufabet ufabet มีเกมให้เลือกเล่นมากมาย: เกมเดิมพันหลากหลาย ครบทุกค่ายดัง
tornado crypto mixer tornado crypto mixer Discover the power of privacy with TornadoCash! Learn how this decentralized mixer ensures your transactions remain confidential.
ดูบอลสด ดูบอลสด Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
ดูบอลสด ดูบอลสด Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
Obrazy Sztuka Nowoczesna Obrazy Sztuka Nowoczesna Thank you for this wonderful contribution to the topic. Your ability to explain complex ideas simply is admirable.
ufabet ufabet Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
ufabet ufabet You’re so awesome! I don’t believe I have read a single thing like that before. So great to find someone with some original thoughts on this topic. Really.. thank you for starting this up. This website is something that is needed on the internet, someone with a little originality!
ufabet ufabet Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
热评文章
易烊千玺的华为绿手机,真的AI了

易烊千玺的华为绿手机,真的AI了

Failed to fetch content Read More 
AI狼人杀大决战!GPT、Qwen、DeepSeek大乱斗,人类高玩汗流浃背

AI狼人杀大决战!GPT、Qwen、DeepSeek大乱斗,人类高玩汗流浃背

AI狼人杀大决战!GPT、Qwen、DeepSeek大乱斗,人类高玩汗流浃背 鹭羽 2025-12-23 14...
长城首个VLA车型发布,魏建军回应「赌上姓氏造车」

长城首个VLA车型发布,魏建军回应「赌上姓氏造车」

长城首个VLA车型发布,魏建军回应「赌上姓氏造车」 贾浩楠 2025-12-23 13:57:25 来源:量子...