作者error405 (流河=L)
看板AI_Art
標題[閒聊] 又有超強小模型? Qwen3.6-27B
時間Fri Apr 24 11:18:58 2026
https://news.aibase.com/tw/news/27378
https://www.blocktempo.com/qwen3-6-27b-open-source-matches-claude-opus-terminal-bench-agentic-coding/
阿里巴巴千問(Qwen)系列最新旗艦 Qwen3.6-27B 於 2026 年 4 月 22 日晚間正式開源
,這顆 27B dense 模型在 Terminal-Bench 2.0 以 59.3 分平 Claude 4.5 Opus,並以
不到 1/14 的引數量,在 SWE-bench Verified 以 77.2 超越上一代 397B MoE 旗艦的
76.2。完整模型 55.6 GB、Q4_K_M 量化壓到 16.8 GB 可在消費級硬體跑起,讓
OpenClaw、Hermes Agent 等本地 agent 框架首次擁有一顆真正堪用的本地大腦。
--
問一下grok它跟Gemma4比起來如何:
Qwen3.6-27B(稠密27B)與Gemma 4系列比較,整體來說兩者是2026年4月開源模型中的頂
尖競爭者,但強項高度分化:Qwen3.6-27B 在 agentic coding(智能體編程) 和部分高
難度推理任務上明顯領先。
Gemma 4(尤其是31B Dense和26B A4B MoE)在 綜合推理、數學、通用知識、多模態(特
別是grounded/multimodal) 以及某些Arena偏好上更強或更均衡。
Coding / Agentic任務:Qwen3.6-27B是目前開源模型中的王者之一,甚至在SWE-bench等
實戰編程代理基準上超越Gemma 4 31B一大截。社區實測顯示Qwen在實際寫代碼、debug、
工具調用時更穩定、不易「跑偏」。
推理 / 數學 / 通用:Gemma 4 31B更強,尤其AIME數學和某些多模態grounded任務。
Gemma在Arena偏好和整體「智能感覺」上常被讚「更像Claude」。
中文與知識:Qwen在C-Eval等中文任務上優勢明顯(90+分 vs Gemma ~82)。
多模態:兩者都支援圖像輸入,Qwen在某些OCR/視覺任務有實測優勢;Gemma小模型額外
支援音頻。
部署與實用性比較參數與效率:Qwen3.6-27B:純稠密,量化後(Q4/Q5)在單張RTX
4090/3090上跑得很順(VRAM ~16-24GB),速度好。
Gemma 4 26B MoE:僅4B active,推理速度更快、更省資源,適合高吞吐。
Gemma 4 31B Dense:品質最高,但VRAM需求稍高(~20-28GB量化後),速度較慢。
本地運行:兩者都有Unsloth、llama.cpp、vLLM等優秀支援。社區影片顯示在相同GPU上
,Gemma MoE版本往往更快,但Qwen在複雜coding agent流程中完成度更高。
記憶/長上下文:Gemma有Sliding Window Attention的潛在弱點(長序列記憶偶爾斷),
Qwen在某些記憶召回測試中更穩。
社區反饋(Reddit / YouTube / HN):很多人認為「純coding/agent用Qwen3.6-27B更爽
」。
「綜合聊天/推理用Gemma 4 31B感覺更好」。
Qwen3.6-27B被讚「讓本地高性能coding agent更易取得」,部分人直呼它在實戰中勝過
Gemma 4。
總結建議如果你主要需求是編程、智能體、代碼生成、終端任務 → 強烈推薦
Qwen3.6-27B,它在這塊的優勢非常突出,甚至讓人覺得「27B dense直接打臉更大模型」
。
如果你需要均衡的推理、數學、多模態、或更「自然」的聊天體驗 → Gemma 4 31B
Dense 或 26B MoE 會更適合,尤其Gemma在Arena和某些通用基準上表現亮眼。
兩者都值得試:它們都是開源頂尖,差異主要在任務偏好而非絕對高低。許多人會同時跑
(e.g. coding用Qwen,通用用Gemma)。
--
看起來像是agent特化
之後的時代會有更多這種又強又小的模型吧
https://artificialanalysis.ai/leaderboards/models?weights=open
已經擠進開源前五 然後gemma4掉下去了
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.36.252.228 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/AI_Art/M.1777000741.A.F39.html
※ 編輯: error405 (114.36.252.228 臺灣), 04/24/2026 11:22:27
1F:→ dreamnook2: (′・ω・‵) 寫文不會爆衝就 04/24 11:45
2F:推 newyorker54: Deepseek V4 公開開源了 04/24 12:00
https://news.futunn.com/hk/post/71983970/deepseek-v4-preview-release-entering-the-era-of-universal-accessibility?level=1&data_ticket=1775642064748474
PRO版1.6T 龐然巨物阿這
※ 編輯: error405 (114.36.252.228 臺灣), 04/24/2026 12:05:18
3F:推 newyorker54: 比opus 4.6強,中國人真的很內卷,到底是要逼死誰? 04/24 12:08
4F:→ newyorker54: 哈哈哈,下載中,先玩 flash,不過可能跑不動,等ggu 04/24 12:09
5F:推 v86861062: 真假 04/24 12:59
6F:推 newyorker54: 不知道,跑分出來 04/24 13:09
7F:推 ct13579: 今天gpt,Qwen,deepseek都發佈新版本號 04/24 14:26
8F:推 stlinman: 比較喜歡小又強的模型,可以自己佈署本地有趣任務。 04/24 14:27
9F:推 newyorker54: 美國直罵中國偷技術,但是人家至少開源先進模型全給 04/24 14:54
10F:→ newyorker54: 世界研究,我只覺得中國劫富濟貧 04/24 14:54
11F:→ newyorker54: 1.6T全給全世界看,美國都是閉源,剽竊全世界人類文 04/24 14:57
12F:→ newyorker54: 化知識,然後閉源還收很貴,你各位怎麼看? 04/24 14:57
13F:推 stlinman: 我是覺得好東西貴應該的,劫富跟濟貧是兩回事(應該分開 04/24 15:10
14F:→ stlinman: 看)。 04/24 15:11
15F:推 ga023630: 偷別人的東西做出來的垃圾模型還有人吹捧 笑死 04/24 15:17
16F:→ sudekoma: 等即夢開源窩就跟著劫 04/24 15:32
17F:推 Tosca: 模型不就是你抄我我抄你 幹嘛這麼計較=.= 04/24 15:32
18F:推 Supasizeit: 偷小偷的東西算偷嗎 04/24 16:18
19F:→ Supasizeit: 小三在外面偷吃也不算偷吃吧 04/24 16:20
20F:→ ganei: 臉皮厚一點喊原創風行就可以光明正大收錢了 04/24 16:24
21F:推 Supasizeit: 跑了A漫翻譯 Qwen3.6 27b比Gemma4 Moe 快8倍 04/24 18:02
22F:→ error405: deepseek出來就變前6惹 04/24 18:19
23F:推 patvessel: Qwen3.6 27b能比Gemma4 Moe快八倍應該是哪邊有問題吧 04/24 18:22
24F:推 Supasizeit: 因為Gemma4 thinking關不掉啊 04/24 18:53
25F:推 Bustycat: 我跑Qwen3.6-27B還是比35B-A3B慢很多 04/24 18:54
26F:→ Supasizeit: 要用奇奇怪怪的方法關 沒試 04/24 18:54
27F:→ Supasizeit: Qwen 的思考要關掉 不然也是要用怪招 04/24 18:55
28F:推 Bustycat: 27B的思考明顯比35B-A3B強 04/24 18:57
29F:推 patvessel: 我是沒有碰到reasoning關不掉的狀況 就給個參數而已 04/24 19:15
30F:→ patvessel: 27B是dense 當然會比35BA3B慢很多 04/24 19:16
31F:推 YCL13: 載入模型時一併下參數應該就可以關掉thinking了,如果不知 04/24 22:15
32F:→ YCL13: 怎麼下參數,可以叫AI幫忙查你用的軟體怎麼下參數呀 04/24 22:15
33F:推 Bustycat: 其實可以隨時切換的不用非得重新載入 04/25 12:05
34F:→ Supasizeit: 用prompt關 不deterministic 啟動關 要重新載模型 沒 04/25 13:53
35F:→ Supasizeit: 好方法 我是llama cpp 04/25 13:53
36F:推 patvessel: 啟動時給 --jinja 然後在每個request body加入 04/25 18:45
37F:→ patvessel: chat_template_kwargs 04/25 18:45
38F:→ patvessel: 裡面就能放enable_thinking和reasoning_budget來啟用和 04/25 18:46
39F:→ patvessel: 控制長度 04/25 18:46
40F:→ patvessel: 或是用llama-swap設定成不同的設定檔組合來熱切換應該 04/25 18:48
41F:→ patvessel: 也不用重新載入權重 04/25 18:48
42F:→ patvessel: 前陣子剛加的router mode就一定要重新載入權重的樣子 04/25 18:50
43F:→ patvessel: 只是要方便的話也可以考慮 04/25 18:50