作者pl132 (pl132)
看板Tech_Job
标题[新闻]不,你无法用 600 万美元复制一个 DeepSee
时间Wed Jan 29 10:58:37 2025
不,你无法用 600 万美元复制一个 DeepSeek R1
https://technews.tw/2025/01/28/you-cannot-copy-deepseekr1-with-6m/
中国 AI 新创企业 DeepSeek 最新发布的 R1 模型震惊美国股市,关键在於其相对低廉的
训练成本,不过深入分析其过程就知道,并不是花 600 万美元就能复制一个相同的模型
。
无论华尔街玩的是什麽套路,DeepSeek R1 模型真正让人惊叹的,是它极度便宜的训练成
本,根据 DeepSeek 宣称,训练成本仅 557.6 万美元,几乎是其他科技巨头大型语言模
型的十分之一成本,这个费用也差不多是一位 AI 主管的年薪而已。
这个惊人的宣示实际上未必如此惊天动地,我们需要一步步拆解他们的模型训练方式,就
能了解其中奥妙。
首先,DeepSeek 和 R1 模型并非一步登天,R1 模型的训练费用其实和去年底发布的 V3
模型相同,而 V3 模型中的多数功能又和 2024 年初发布的 V2 模型共用。
在 V2 模型里,他们导入了两个重要的元件:DeepSeekMoE 和 DeepSeekMLA,前者代表了
多重专家混合(Mixture of Experts),和 ChatGPT4 一样,他们将训练出的 AI 分为多
种专家,根据对话内容调用合适领域的专家,以达成更精准而高效率的回应。後者则是多
头潜在注意力机制(Multi-Head Latent Attention),在 AI 对话中,需要载入模型和
文本,每个 token 需要对应的 key 和 value,MLA 则能够压缩 value 的储存空间,进
而减少记忆体需求。
https://is.gd/gzBeWB
▲DeepSeek V3 模型架构图。(Source:Github)
到了 V3 模型,他们再根据以上基础,导入负载平衡和多重 token 预测机制,进一步提
升训练效率,根据 DeepSeek 宣称,训练 V3 模型总共使用 278.8 万 H800 GPU 工时,
依每工时 2 美元推算,整体训练成本就是 557.6 万美元。
而 R1 模型的训练成本据称与 V3 模型相同,换言之,想要做出 R1 模型,并不是拿
H800 跑 280 万个工时就能做出来,还必须有前置研究、反覆实验和前置演算法架构。
相反地,从目前实测结果来看 DeepSeek R1 的表现与 ChatGPT O1 确实不相上下,甚至
有自己的优势,既然 DeepSeek 是开源架构,就代表其他科技巨头可以用相似的模组,投
入上百万或上千万个更高阶的 H100 GPU 工时去训练模组,如此则能获得十倍於
DeepSeek R1 的成果。
从这个角度来看,你觉得 NVIDIA 有什麽好紧张的吗?
--
推 pb220918:不爽可以当禽兽 五楼是禽兽!! 10/04 22:12
→ pb220918:盖 10/04 22:12
→ pb220918:盖 10/04 22:12
→ pb220918:盖 10/04 22:12
→ Davisss:我是禽兽 我真爽 我在骑1楼 10/04 22:13
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 114.26.136.149 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Tech_Job/M.1738119530.A.F11.html
1F:推 boards : 如果成本这麽低 112.78.81.247 01/29 10:59
2F:→ boards : 全世界的核电厂也该关闭了 112.78.81.247 01/29 10:59
3F:→ boards : 中国拉一根暗管,偷接OpenAI 、Gemi 112.78.81.247 01/29 11:00
4F:→ boards : ni ,资料还会回传中国! 112.78.81.247 01/29 11:00
5F:→ tgyhuj01 : 台湾已经关了阿 你质疑台湾政府? 36.227.83.81 01/29 11:11
6F:推 bella1815 : DeepSeek有5万个H100,碍於禁令不 61.228.165.120 01/29 11:27
7F:→ bella1815 : 能明言 61.228.165.120 01/29 11:27
8F:→ kevinmeng2 : 世界怎麽跟得上台湾?终於跟上了 219.70.152.87 01/29 11:47
9F:推 shter : 又不是只有训练AI要用电,现在一堆 1.169.73.118 01/29 12:27
10F:→ shter : 云端服务算力主机在做其他应用产品 1.169.73.118 01/29 12:28
11F:→ shter : 几年前那些大数据资料中心越存越多 1.169.73.118 01/29 12:29
12F:→ shter : 累积下去能源需求只会扩张而已 1.169.73.118 01/29 12:29
13F:推 kingof303 : 一看就知道中国在骗人 多呆才相信 61.227.212.152 01/29 12:42
14F:嘘 cityhunter04: 最大的优势就是会帮忙言论审查…厉 114.24.100.161 01/29 12:48
15F:→ cityhunter04: 害厉害! 114.24.100.161 01/29 12:48
16F:推 zombiechen : 前天吹deep search 的帐号今天都躲 118.171.11.104 01/29 13:00
17F:→ zombiechen : 起来不见了 118.171.11.104 01/29 13:00
18F:推 drea : DS厉害的是晶片不用算入成本,无敌 111.252.83.115 01/29 13:13
19F:推 peter6666712: 十倍工时 = 十倍成果 笑了 1.200.246.84 01/29 13:19
20F:推 afking : 问就是继续买进 49.217.130.119 01/29 13:53
21F:推 kaltu : 这整个成本什麽时候audit报告会出来 100.8.245.106 01/29 14:05
22F:→ kaltu : ? 100.8.245.106 01/29 14:05
23F:→ jhangyu : 有够lag,berkley实验室 101.9.131.231 01/29 14:17
24F:→ jhangyu : 已经用30美元复制成果了还在洗 101.9.131.231 01/29 14:17
25F:嘘 straggler7 : 纠结在成本怎麽算没太大意义 36.229.59.188 01/29 14:24
26F:推 admon : 成本也许夸大 但从结果论看并不是全 125.224.210.22 01/29 14:53
27F:→ admon : 假 125.224.210.22 01/29 14:53
28F:嘘 jason90814 : 「并不是拿 H800 跑 280 万个工时180.217.192.111 01/29 15:03
29F:→ jason90814 : 就能做出来,还必须有前置研究、反180.217.192.111 01/29 15:03
30F:→ jason90814 : 覆实验和前置演算法架构」这段到底180.217.192.111 01/29 15:03
31F:→ jason90814 : 在公杀小,阿人家研究跟架构都开源180.217.192.111 01/29 15:03
32F:→ jason90814 : 了,GPT那种闭源的才是无法复制吧180.217.192.111 01/29 15:03
33F:推 jason90814 : 还在提晶片价格的也是颇ㄏ 租房跟180.217.192.111 01/29 15:08
34F:→ jason90814 : 买房搞不清楚180.217.192.111 01/29 15:08
35F:推 hensel : MOE的e不用先训练喔 36.230.44.78 01/29 15:09
36F:嘘 jackey0117 : 开源的优势屌打那些贵森森的商用的 116.241.209.33 01/29 15:27
37F:→ cphe : 这样讲这不就代表中国的AI研究实力 42.79.160.68 01/29 15:38
38F:→ cphe : 更强吗 42.79.160.68 01/29 15:38
39F:推 Alphaz : 坐等GAI卷到免费 支那加油好吗 150.117.201.51 01/29 15:59
40F:推 swimbert : 哇终於有人承认模型更好了 123.204.137.86 01/29 16:09
41F:推 samarium : 有部分理工男对核电跟中国特别有感 49.216.129.35 01/29 16:38
42F:→ samarium : 觉柯柯 49.216.129.35 01/29 16:38
44F:→ boards : 你各位啊~不要再传啦! 101.10.44.11 01/29 16:53
45F:→ boards : 今天用电占比: 101.10.44.11 01/29 16:53
46F:→ boards : 再生能源45%是核电4.3%的十多倍 101.10.44.11 01/29 16:53
47F:推 naushtogo : 中国讲的数字你也信? 1.146.134.27 01/29 17:03
48F:→ oopsskimo : 训练自己的AI出来 发大财223.139.131.221 01/29 17:10
49F:嘘 navysoider : 有关中国跟共产党的话题会没有答案 1.200.140.93 01/29 17:17
50F:→ navysoider : ,共产党的人工智慧 1.200.140.93 01/29 17:17
51F:→ BoXeX : 在想本板文组是不是有点多啊 111.250.18.76 01/29 17:30
52F:推 b258963147 : 越卷越好,坐等 gpt免费 嘻嘻 111.254.15.138 01/29 17:43
53F:→ much0112 : 如果结果只是演算法上的问题114.174.185.237 01/29 18:21
54F:→ much0112 : 而不是工具上的限制114.174.185.237 01/29 18:21
55F:→ much0112 : 美国AI大战等着败114.174.185.237 01/29 18:21
56F:→ much0112 : 1亿人拼不过14亿人114.174.185.237 01/29 18:21
57F:推 MVPkobe : 确实 最後一段跟我想法一致 42.72.87.167 01/29 19:19
58F:推 bella1815 : 连美国人口多少都错的离谱 61.228.165.120 01/29 20:04
59F:→ lavign : LLM都还在吃2017 Transformer老本 42.71.91.63 01/30 05:46
60F:推 npkalala : 同意51楼,真的有人以为要达到人脑 42.77.24.135 01/30 10:02
61F:→ npkalala : 思考只有架构问题,一堆文组 42.77.24.135 01/30 10:02
62F:推 Brioni : 有明确进步还蛮屌的203.204.115.205 01/31 22:34