作者Supasizeit (Shitpost King)
看板MAC
標題[麥書] M5 MBP Pro 64G是不是最划算啊
時間Thu Apr 9 01:46:57 2026
MBA M5 24GB 加到 32GB 要7000塊
MBP M5 Pro 24GB加到64GB只要21000
1GB才五百跟 DDR5 價錢差不多了耶
而且48->64 才7000 不直上是棒槌
可以拿來跑Gemma 4 31B 惹
這代是不是記憶體買的越多省的越多
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 203.204.195.174 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/MAC/M.1775670419.A.458.html
1F:推 ricocheng: 用MBP看Youtube當然是記憶體越高越順 04/09 06:03
2F:推 az0102: 用的到最划算,用不到不划算 04/09 08:04
3F:推 nlnlnl: 問就是8g神教 04/09 09:33
4F:推 shasen1236: 蘋果應該出個4GB NEO,我想看那群怎麼表演 04/09 09:35
5F:推 domonsan: 哥,要升級到64GB還要強制升級CPU,14寸MBP要破十萬了 04/09 09:47
6F:→ domonsan: 但是拿來跟顯卡比還是很香 04/09 09:47
7F:→ Obama19: 你以為庫克傻了嗎 04/09 10:12
8F:→ cancelpc: 顯卡可以跑AI,遊戲 04/09 14:38
9F:推 catcat5566: 買什麼M5 pro 64G, M1 8G就夠用了 04/09 17:24
10F:推 SaberMyWifi: 你以為CPU不用加價嗎=.= 04/09 21:51
11F:推 Bustycat: 敢質疑廚子的刀工? 04/09 22:11
12F:→ Supasizeit: 我5090跑31B跑不動啊 04/09 22:13
13F:推 morrislek: 怎麼不買Mac mini 04/10 09:27
14F:→ jjjj222: 有用到都划算, 沒用到都浪費 04/10 10:30
15F:推 johnpisces2: 10w就直接買GB10比較實在吧 04/10 11:40
16F:推 hpk89: gb10比m5 max還慢,然後只能拿來做AI, mbp實用多了 04/10 11:50
17F:推 ch010062: 同樣有5090這次也要買m5 pro 64G來玩玩 04/10 12:21
18F:推 rogergon: 我就在想,M5 Max 128G會不會更好一些 04/10 13:31
19F:→ rogergon: GPU x2, memory bandwidth x2, price x1.8 04/10 13:37
20F:→ Supasizeit: Gemma4再怎麼神也沒到能取代Claude 如果可以我就衝Ma 04/10 14:00
21F:→ Supasizeit: x128 04/10 14:00
22F:推 Shigeru777: 你不會想用 MBP 長時間跑 AI 風扇&廢熱夠你受的 04/10 14:03
23F:→ Shigeru777: 偶爾用還好 長時間運行 我等 Mac Studio 04/10 14:03
24F:→ Supasizeit: LLM一般運行是一陣一陣的還好吧 不是在跑訓練沒差 04/10 14:33
25F:推 dsin: 有agent跑全年無休是可能的 04/10 15:18
26F:→ dsin: Claude長期超大用量,是情況任務用本地端是可以省錢的 04/10 15:21
27F:→ dsin: 視 04/10 15:22
28F:推 xoy: M1時代的Max就有64GB RAM可以選,想用的隨時都有得選,就沒 04/10 15:47
29F:→ xoy: 有很普遍 04/10 15:47
30F:推 domonsan: Claude再怎麼神也不是本機AI,搭配Gemma 4本機AI其實是 04/10 16:44
31F:→ domonsan: 很好的組合,如果128GB內存可以同時跑LLM跟算動畫算圖 04/10 16:44
32F:→ domonsan: 根本AI財富自由,雖然速度輸nVidia,但一個能做多工 04/10 16:44
33F:→ domonsan: 另一個連跑一個就很喘的爽度還是有差 04/10 16:44
34F:推 domonsan: GB10我不太熟,不過好像是跑Linux? 而且記憶體頻寬好像 04/10 16:52
35F:→ domonsan: 輸M5Max不少? 04/10 16:52
36F:推 hpk89: GB10跑中小模型還可以,31B/35B以上的就很喘,記憶體頻寬 04/10 18:39
37F:→ hpk89: 太少 04/10 18:39
38F:→ sinclaireche: 當server跑Linux有差嗎 GB10串第二台效益會最大化 04/10 18:57
39F:推 domonsan: 樓上,消費機當然跟消費機比啊,拿 Server 串聯來跟單 04/10 19:31
40F:→ domonsan: 機比,這根本是張飛打岳飛,基準點都不一樣怎麼比... 04/10 19:31
41F:→ sinclaireche: gb10的dgx spark體積不是 server 04/10 20:14
42F:推 johnpisces2: 但m5 max 128g的價格快可以買兩台了 頻寬好大R 04/10 21:10
43F:推 domonsan: 哥,你要頻寬跟 M5 Max 差不多,起碼要串兩台 GB10,預 04/10 22:20
44F:→ domonsan: 算要當當 20 萬以上看吧,而且 Linux 門檻高,買來基本 04/10 22:20
45F:→ domonsan: 就是當純 AI 運算機,論日常多工跟一般人的上手度,Mac 04/10 22:20
46F:→ domonsan: OS 還是實際多了吧 04/10 22:20
47F:→ sinclaireche: Linux門檻很低了 要自己跑AI已經不是一般人 04/10 22:29
48F:推 slein: 真要跑AI , Linux環境絕對是最佳選擇 04/10 23:55
49F:推 hpk89: 自己跑AI哪有什麼門檻,你跟cc或codex說, 我要在這台電腦 04/10 23:55
50F:→ hpk89: 跑本地gemma4-e4b, 含環境偵測和設定15分鐘全自動安裝到好 04/10 23:55
51F:→ hpk89: ,你只要會按接受就可以,不會用還附帶教學,我阿母都會 04/10 23:55
52F:推 domonsan: 其實 MacOS 跑 Gemma 4 也很簡單啊,用 LM Studio 下載 04/11 00:24
53F:→ domonsan: 好模型點一下就搞定了xD,Linux 的自主性很高真的無庸 04/11 00:24
54F:→ domonsan: 置疑,但我就是個一般人,還是讓我舒舒服服地用 Mac 或 04/11 00:24
55F:→ domonsan: Windows 吧QQ 04/11 00:24
56F:→ johnpisces2: 其實mac底層是unix,兩邊用起沒有差多少.. 04/11 00:30
57F:→ yangwen5301: 差很多,Linux 自由很多 04/11 16:06
58F:推 domonsan: 昨天大家還在討論,結果剛剛一堆m5 pro跟m5max的產品都 04/11 21:18
59F:→ domonsan: 暫無供應了,現在是恐慌性收購蘋果產品嗎?!?! 04/11 21:18
60F:→ domonsan: 搞錯了哈哈… 04/11 21:20
61F:推 Bustycat: LM Studio現在沒辦法跑MLX的Gemma 4 04/12 13:18
63F:→ domonsan: 樓上,有啦,快去下載來玩! 04/18 01:34
64F:→ Supasizeit: Dense 不是MOE 這個跑得動嗎 04/22 17:01
65F:→ Supasizeit: MBA M5 32G Decode 3–4 tok/s 04/22 21:40
66F:→ Supasizeit: 基本上不能跑 04/22 21:40
67F:推 domonsan: 原PO哥,其實我那句主要是針對 Bustycat 說沒 MLX 版本 04/23 09:46
68F:→ domonsan: 才貼圖回他的,Mac 的規格百百種,跑起來體感本來就不 04/23 09:46
69F:→ domonsan: 同,如果覺得 31B Dense 負擔太重,旁邊 26B 也有 MoE 04/23 09:46
70F:→ domonsan: 架構和 MLX 版能用,大家就挑適合自己硬體的版本玩就好 04/23 09:46
71F:→ Supasizeit: 沒用過lmsrudio 正在試26b MLX跟gguf差多少 mlx_vlm 04/23 17:58
72F:→ Supasizeit: 還不是正式版好像不太穩 04/23 17:58