作者error405 (流河=L)
看板AI_Art
标题[闲聊] 又有超强小模型? Qwen3.6-27B
时间Fri Apr 24 11:18:58 2026
https://news.aibase.com/tw/news/27378
https://www.blocktempo.com/qwen3-6-27b-open-source-matches-claude-opus-terminal-bench-agentic-coding/
阿里巴巴千问(Qwen)系列最新旗舰 Qwen3.6-27B 於 2026 年 4 月 22 日晚间正式开源
,这颗 27B dense 模型在 Terminal-Bench 2.0 以 59.3 分平 Claude 4.5 Opus,并以
不到 1/14 的引数量,在 SWE-bench Verified 以 77.2 超越上一代 397B MoE 旗舰的
76.2。完整模型 55.6 GB、Q4_K_M 量化压到 16.8 GB 可在消费级硬体跑起,让
OpenClaw、Hermes Agent 等本地 agent 框架首次拥有一颗真正堪用的本地大脑。
--
问一下grok它跟Gemma4比起来如何:
Qwen3.6-27B(稠密27B)与Gemma 4系列比较,整体来说两者是2026年4月开源模型中的顶
尖竞争者,但强项高度分化:Qwen3.6-27B 在 agentic coding(智能体编程) 和部分高
难度推理任务上明显领先。
Gemma 4(尤其是31B Dense和26B A4B MoE)在 综合推理、数学、通用知识、多模态(特
别是grounded/multimodal) 以及某些Arena偏好上更强或更均衡。
Coding / Agentic任务:Qwen3.6-27B是目前开源模型中的王者之一,甚至在SWE-bench等
实战编程代理基准上超越Gemma 4 31B一大截。社区实测显示Qwen在实际写代码、debug、
工具调用时更稳定、不易「跑偏」。
推理 / 数学 / 通用:Gemma 4 31B更强,尤其AIME数学和某些多模态grounded任务。
Gemma在Arena偏好和整体「智能感觉」上常被赞「更像Claude」。
中文与知识:Qwen在C-Eval等中文任务上优势明显(90+分 vs Gemma ~82)。
多模态:两者都支援图像输入,Qwen在某些OCR/视觉任务有实测优势;Gemma小模型额外
支援音频。
部署与实用性比较参数与效率:Qwen3.6-27B:纯稠密,量化後(Q4/Q5)在单张RTX
4090/3090上跑得很顺(VRAM ~16-24GB),速度好。
Gemma 4 26B MoE:仅4B active,推理速度更快、更省资源,适合高吞吐。
Gemma 4 31B Dense:品质最高,但VRAM需求稍高(~20-28GB量化後),速度较慢。
本地运行:两者都有Unsloth、llama.cpp、vLLM等优秀支援。社区影片显示在相同GPU上
,Gemma MoE版本往往更快,但Qwen在复杂coding agent流程中完成度更高。
记忆/长上下文:Gemma有Sliding Window Attention的潜在弱点(长序列记忆偶尔断),
Qwen在某些记忆召回测试中更稳。
社区反馈(Reddit / YouTube / HN):很多人认为「纯coding/agent用Qwen3.6-27B更爽
」。
「综合聊天/推理用Gemma 4 31B感觉更好」。
Qwen3.6-27B被赞「让本地高性能coding agent更易取得」,部分人直呼它在实战中胜过
Gemma 4。
总结建议如果你主要需求是编程、智能体、代码生成、终端任务 → 强烈推荐
Qwen3.6-27B,它在这块的优势非常突出,甚至让人觉得「27B dense直接打脸更大模型」
。
如果你需要均衡的推理、数学、多模态、或更「自然」的聊天体验 → Gemma 4 31B
Dense 或 26B MoE 会更适合,尤其Gemma在Arena和某些通用基准上表现亮眼。
两者都值得试:它们都是开源顶尖,差异主要在任务偏好而非绝对高低。许多人会同时跑
(e.g. coding用Qwen,通用用Gemma)。
--
看起来像是agent特化
之後的时代会有更多这种又强又小的模型吧
https://artificialanalysis.ai/leaderboards/models?weights=open
已经挤进开源前五 然後gemma4掉下去了
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 114.36.252.228 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/AI_Art/M.1777000741.A.F39.html
※ 编辑: error405 (114.36.252.228 台湾), 04/24/2026 11:22:27
1F:→ dreamnook2: (′・ω・‵) 写文不会爆冲就 04/24 11:45
2F:推 newyorker54: Deepseek V4 公开开源了 04/24 12:00
https://news.futunn.com/hk/post/71983970/deepseek-v4-preview-release-entering-the-era-of-universal-accessibility?level=1&data_ticket=1775642064748474
PRO版1.6T 庞然巨物阿这
※ 编辑: error405 (114.36.252.228 台湾), 04/24/2026 12:05:18
3F:推 newyorker54: 比opus 4.6强,中国人真的很内卷,到底是要逼死谁? 04/24 12:08
4F:→ newyorker54: 哈哈哈,下载中,先玩 flash,不过可能跑不动,等ggu 04/24 12:09
5F:推 v86861062: 真假 04/24 12:59
6F:推 newyorker54: 不知道,跑分出来 04/24 13:09
7F:推 ct13579: 今天gpt,Qwen,deepseek都发布新版本号 04/24 14:26
8F:推 stlinman: 比较喜欢小又强的模型,可以自己布署本地有趣任务。 04/24 14:27
9F:推 newyorker54: 美国直骂中国偷技术,但是人家至少开源先进模型全给 04/24 14:54
10F:→ newyorker54: 世界研究,我只觉得中国劫富济贫 04/24 14:54
11F:→ newyorker54: 1.6T全给全世界看,美国都是闭源,剽窃全世界人类文 04/24 14:57
12F:→ newyorker54: 化知识,然後闭源还收很贵,你各位怎麽看? 04/24 14:57
13F:推 stlinman: 我是觉得好东西贵应该的,劫富跟济贫是两回事(应该分开 04/24 15:10
14F:→ stlinman: 看)。 04/24 15:11
15F:推 ga023630: 偷别人的东西做出来的垃圾模型还有人吹捧 笑死 04/24 15:17
16F:→ sudekoma: 等即梦开源窝就跟着劫 04/24 15:32
17F:推 Tosca: 模型不就是你抄我我抄你 干嘛这麽计较=.= 04/24 15:32
18F:推 Supasizeit: 偷小偷的东西算偷吗 04/24 16:18
19F:→ Supasizeit: 小三在外面偷吃也不算偷吃吧 04/24 16:20
20F:→ ganei: 脸皮厚一点喊原创风行就可以光明正大收钱了 04/24 16:24
21F:推 Supasizeit: 跑了A漫翻译 Qwen3.6 27b比Gemma4 Moe 快8倍 04/24 18:02
22F:→ error405: deepseek出来就变前6惹 04/24 18:19
23F:推 patvessel: Qwen3.6 27b能比Gemma4 Moe快八倍应该是哪边有问题吧 04/24 18:22
24F:推 Supasizeit: 因为Gemma4 thinking关不掉啊 04/24 18:53
25F:推 Bustycat: 我跑Qwen3.6-27B还是比35B-A3B慢很多 04/24 18:54
26F:→ Supasizeit: 要用奇奇怪怪的方法关 没试 04/24 18:54
27F:→ Supasizeit: Qwen 的思考要关掉 不然也是要用怪招 04/24 18:55
28F:推 Bustycat: 27B的思考明显比35B-A3B强 04/24 18:57
29F:推 patvessel: 我是没有碰到reasoning关不掉的状况 就给个参数而已 04/24 19:15
30F:→ patvessel: 27B是dense 当然会比35BA3B慢很多 04/24 19:16
31F:推 YCL13: 载入模型时一并下参数应该就可以关掉thinking了,如果不知 04/24 22:15
32F:→ YCL13: 怎麽下参数,可以叫AI帮忙查你用的软体怎麽下参数呀 04/24 22:15
33F:推 Bustycat: 其实可以随时切换的不用非得重新载入 04/25 12:05
34F:→ Supasizeit: 用prompt关 不deterministic 启动关 要重新载模型 没 04/25 13:53
35F:→ Supasizeit: 好方法 我是llama cpp 04/25 13:53
36F:推 patvessel: 启动时给 --jinja 然後在每个request body加入 04/25 18:45
37F:→ patvessel: chat_template_kwargs 04/25 18:45
38F:→ patvessel: 里面就能放enable_thinking和reasoning_budget来启用和 04/25 18:46
39F:→ patvessel: 控制长度 04/25 18:46
40F:→ patvessel: 或是用llama-swap设定成不同的设定档组合来热切换应该 04/25 18:48
41F:→ patvessel: 也不用重新载入权重 04/25 18:48
42F:→ patvessel: 前阵子刚加的router mode就一定要重新载入权重的样子 04/25 18:50
43F:→ patvessel: 只是要方便的话也可以考虑 04/25 18:50