作者googstar (股大湿)
看板Stock
标题Re: [新闻] 甲骨文股价暴跌超10%!订单积压越来越多 「烧钱」砸AI
时间Sat Dec 13 23:32:00 2025
※ 引述《minazukimaya (水无月真夜)》之铭言:
: 没关系,偷偷告诉你一个Insight
: 今年NeurIPS 2025有一篇超重量级的论文
: Introducing Nested Learning
: 这篇文论的重要程度不亚於Attention is all you need
: 甚至可以说有过之而无不及
: Transfomer架构只是发明了蒸气机
: Nested Learning这篇论文,简直就是热力学定律的等级了
: 基本上等於宣告Transformer架构过时了(因为是一种扁平和单一频率的特例)
: 未来三到五年,全面转向Nested Learning的时代
如果真的架构更改 那对辉达反而更有利吧?
这几年设计的ASIC都是基於Transformer架构
基本上要整个打掉重来 重新设计新的ASIC
那就又一次轮回循环 只能利用NV GPU挺过过渡期
等架构整个稳定 再设计适配的ASIC
每更改一次架构 就让GPU的商业可用性拉长更多时间
另外假如真的实现agi 对算力的需求会再来一次几倍的成长的
LLM的泛用性 还不够广
agi几乎什麽都能做 同时也代表架构稳定需要一段时间
其实也会让NV能赚烂的时间更长
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 36.235.156.233 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1765639922.A.AAA.html
1F:推 madeinheaven: 不管什麽晶片都要用记忆体 12/13 23:36
2F:推 stocktonty : 辉又赢 12/13 23:38
3F:→ kamitengo : gh200都变洋垃圾了,还挺个啥? 12/13 23:45
4F:→ potionx : 设计是一直都有在改进效率的 只是方向上的差异 12/13 23:47
5F:推 junior020486: 直接不玩了,重新设计ASIC,之前那些怎麽办?等於 12/13 23:48
6F:→ junior020486: 旧的ASIC跟上一代的gpu 马上没屁用欸 12/13 23:48
7F:→ junior020486: 哪来那麽多钱整天重来 12/13 23:48
8F:推 CAFEHu : 3A蛙:说得好像以前打3A大作就不用换新显卡似的 12/13 23:56
9F:推 shter : 你觉得那些用 GPU 挖矿的现在还在用 GPU 挖吗? 12/13 23:59
10F:→ shter : 旧的矿机ASIC只要能源效率不如新的马上就淘汰了 12/13 23:59
11F:→ shter : 跑 AI 运算的也一样,都是在拚算力最佳化 12/14 00:00
12F:→ potionx : 据说连电压都在改高 因为会更省电 什麽花招都用上了 12/14 00:05
13F:→ offstage : 但是当初那些买的硬体,会计折旧是设定五年或更长 12/14 00:08
14F:→ offstage : 马上淘汰的话,就要立刻认列大笔的折旧费用,会死人 12/14 00:08
15F:推 CAFEHu : 肥宅:说得好像一直启动显卡的人跟白痴一样 12/14 00:09
16F:→ sheep2009 : AI变化太快了 12/14 00:09
17F:→ sheep2009 : 不像矿机 BTC规则都固定了 12/14 00:09
18F:推 darkangel119: MRVL的ASIC可以丢了 12/14 00:13
19F:→ darkangel119: AICHIP: 哭勒 又要爆肝了 12/14 00:14
20F:推 ab4daa : 欧印NVDA 12/14 00:31
21F:推 hotbeat : 老黄早都说了 也慢太多拍了 12/14 00:34
22F:推 TIPPK : 如果一年一换,那有人要买吗 12/14 00:54
23F:推 stocktonty : 沉没成本当然要继续买 不硬着头皮买就输了 赢者全拿 12/14 00:55
24F:→ fitenessboyz: MRVL真的早晚拜拜 12/14 01:12
25F:→ TaiwanUp : 甲骨文本来就只比AT&T IBM好一点而已 12/14 01:20
26F:嘘 yuen1029 : 如果有买辉达怎样都赢 12/14 01:30
27F:嘘 stanleyplus : NV 下探150 空就对了 12/14 01:35
28F:推 acolam : 快速响应不就要更多hbm? 12/14 01:42
29F:推 ykjiang : 现成硬体来说,确实只有GPU最有利, 12/14 02:06
30F:→ ykjiang : 不过估计GPU也需要重新设计,才能更针对这个应用 12/14 02:06
31F:推 CAFEHu : 极限玩家:先别说多久汰换,只要性能有重大突破, 12/14 04:21
32F:→ CAFEHu : 就算你不换,难道你的对手也不会换吗? 12/14 04:21
33F:→ fallinlove15: 我觉得谷歌只是优化算法用在特定情况下 老黄是对一 12/14 08:58
34F:→ fallinlove15: 个平台的硬体下手 自由度比较高 护城河更深 谷歌证 12/14 08:58
35F:→ fallinlove15: 明大家能自己设计又怎样 讲得像大部分人做得到一样 12/14 08:58
36F:→ fallinlove15: 所以对於媒体渲染 只要知道 有这种可能 就够了 等 12/14 08:59
37F:→ fallinlove15: 真正有威胁的出现记得要注意 只是现在没有 12/14 08:59
38F:推 guanting886 : Google 花钱投资在ASIC就是在对自己的平台做优化 12/14 11:00
39F:→ guanting886 : 新的ASIC出来旧的就没用这个担心很奇怪 12/14 11:01
40F:→ guanting886 : 多模态模型本身就会用到TPU 你辨识文件需要OCR 而 12/14 11:04
41F:→ guanting886 : 且 GCP 也提供相关的服务给别人付费使用 他本质就 12/14 11:04
42F:→ guanting886 : 深度学习专用的东西 YT/Google Play的搜寻跟推荐模 12/14 11:04
43F:→ guanting886 : 型用这个在跑的 嵌套学习出来了 以前做好的晶片是 12/14 11:04
44F:→ guanting886 : 会有什麽影响 一样都有别处的作用 12/14 11:04
45F:→ guanting886 : 都迭代到v7了才在想 12/14 11:04
46F:推 poco0960 : GPU还可以撑一阵子,asic改算法是直接变垃圾 12/14 13:12