作者icrose (人本良心)
看板Stock
标题Re: [新闻] 甲骨文股价暴跌超10%!订单积压越来越多 「烧钱」砸AI
时间Sat Dec 13 10:08:59 2025
※ 引述《minazukimaya (水无月真夜)》之铭言:
: ※ 引述《LDPC (Channel Coding)》之铭言:
: : @@我是不知道其他世界线 我们公司有引入各种AI Tool
: : 比方说在slack 我要开一个data bucket权限 (公司机密资料 权限最高级那种)
: : 来测试我新模型 然後我就slack打serval (IT机器人公司方案)
: : 他就开始一步步核对 然後最後一步还跟我说有各种data access 时间限制
: : 然後就帮我设定好 然後最一关签呈就是人类IT 这些步骤效率超越传统IT很多
: : 随时都可以叫IT机器人帮我处理各种事情 前置作业大量弄好 只要一两个人类做最後确认
: : 同样的 我在openai企业版(有专门设计给企业版) 这个整合内部公司所有文件资料
: : 有一次我要设计模型 我就问这方面模型有谁设计过 结果他就拉出过去
: : 三年各种历史设计报个 还有各种benchmark 因为openai企业版可以整合公司资料库
: : 一下子我就能站在过去历史巨人 不需要去问哪个部门之前干过啥
: : ai coding现在最大用途就是写测试工具 真他x的好用 设计模型完之後 叫ai帮我写
: : script去做下游端大量测试
: : 其他ai tool还有infenrece端可以直接调用prompt和观察模型反应 以及notion
: : 这种线上报告也引用自家ai tool 快速搜寻资料都挺方便
: : 然後我们自己设计给下游顾客的ai tool 如果顾客说他工作时间没缩短
: : 那我们就拿不下订单 现在垂直整合领域已经杀到红血 每个tool 越盖越先进QQ
: : 我好想躺平 已经每天工时飙到16hr....... 改天再写写去NeurIPS看到的迹象
: : Hinton/Jeff Dean/Yoshua Bengio/何凯明 任何你知道大神都去这今年NeurIPS
: : 结论就是大厂真的要干架了 Google DeepMind新政策 禁止发paper
: : QQ 不发paper延伸意义就是 现在开始 狗家不会在开放他们自家模型设计秘密
: : 目标就是要胖揍开放爱和其他竞争者...
: : 目前狗家大量研究员生气中 这次还有很多菁英邀请制度线下聚会 跑去蹭了NV/META
: : 看到一堆海外的博士生在现场跪求进去Meta 线下聚会.......QQ
: : 据说开放爱线下聚会是最难进去的 连地点和门路在哪都不知 只能被动邀请
: 没关系,偷偷告诉你一个Insight
: 今年NeurIPS 2025有一篇超重量级的论文
: Introducing Nested Learning
: 这篇文论的重要程度不亚於Attention is all you need
: 甚至可以说有过之而无不及
: Transfomer架构只是发明了蒸气机
: Nested Learning这篇论文,简直就是热力学定律的等级了
: 基本上等於宣告Transformer架构过时了(因为是一种扁平和单一频率的特例)
: 未来三到五年,全面转向Nested Learning的时代
: 以下文字是我先写一版,再请Gemini润稿的洞察
: --------这是AI润稿的分隔线--------
: 当前 AI 发展正受制於一道物理铁律:记忆体墙(Memory Wall)。传统 Transformer 架
: 构依赖 KV Cache 维持上下文,这本质上是一种「以频宽换取长度」的低效策略。随
: 着上下文长度 T 的增加,Attention 机制的计算复杂度呈 O(T^2) 增长,而推论时
: 的记忆体搬运量呈 O(T) 线性增长。在 HBM 频宽成长远落後於 GPU 算力的现状下,这
: 种依赖储存大量未经压缩原始状态的架构,注定会从 Compute-Bound 跌落至 IO-Bound
: 的深渊。
: Nested Learning 的出现,透过对记忆与推理本质的重新理解,为此困境带来了典范转移
: 级别的解答。
: 其核心突破在於「推论即训练」的数学创新——Nested Learning 揭示了
: Attention 机制在本质上等价於单步的梯度下降更新。基於此,HOPE 架构不再被动地检
: 索历史,而是主动将资讯即时压缩为模型权重。这将原本受限於频宽的检索问题,转化为
没吹的那麽神奇
这个东西在中国大陆有个叫彭博的推广了好多年了
也就是rwkv,既然是上下文提要压缩,是一种有损压缩,就更和人类思维模式近似,更失去了超越人类agi诞生的可能性,成为垂直领域慢慢调教的一种方式
我还是认为ai首先要解决意识的模拟和情感模式的构建
这样可以不光是和人类这种智能体更好沟通,更深入理解视频音乐图画的人类审美痛点在哪里
股点,这波甲骨文 博通 meta的一系列鬼故事,市场不盘整三天不可能了
: 仅需固定算力的状态更新问题,从根本上粉碎了记忆体墙。
: 在应用层面,这种架构彻底重塑了 AI 的个性化能力。HOPE 的动态记忆机制(Fast
: Weights) 不再依赖传统模型那种外挂式的提示词(Prompting)来「模拟」短期记忆,
: 而是透过梯度更新,将使用者的偏好与习惯即时「内化」为模型参数的一部分。这不
: 仅在工程上根除了重复处理提示词的算力浪费,更在体验上创造出具备「演化能力」的专
: 属模型,让 AI 随着每一次互动变得更懂你。
: 这一变革预示着当前 HBM 需求高速增长的趋势将显着放缓,技术改革的方向将转向针对
: 不同更新层级的硬体特化:
: 边缘装置 (Edge): 承载高频更新的快层,将不再单纯追求频宽,而是转向追求大容量
: SRAM 与极致的能效比,以支撑毫秒级的状态写入与计算。
: 云端中心 (Cloud): 承载低频更新的慢层,为了处理更复杂的逻辑推理与庞大的智能结
: 构,将演化出针对非欧几何的特化运算单元,以在双曲空间中实现更高维度的高效推理。
: ----------这是AI润稿的分隔线-----------
: 你各位要小心HBM市场在2026年末的崩溃反转
: 短期因为各种高频信号,还是会持续推高HBM的市场价格
: 然後记忆体因为这些需求讯号,会疯狂扩厂
: 等到「基於超大KV Cache的Transfomer架构」路径依赖崩溃
: 新架构全面转向HOPE的时侯
: 嘻嘻 刺激罗~~~
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 123.52.229.114 (中国)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1765591743.A.3DA.html
1F:→ sagarain : 三天後复活吗 12/13 10:09
2F:推 maimss : 看到一堆延伸文好累喔,做股票低买高卖就好了,一 12/13 10:11
3F:→ maimss : 直研究干嘛,还不是一样会跌会涨 12/13 10:11
4F:嘘 losehope : 楼上突破盲点! 12/13 10:15
5F:推 bestseal : 楼楼上说的没错 12/13 10:20
6F:→ CAFEHu : 价值蛙:别人恐惧,我就贪婪 12/13 10:28
7F:→ CAFEHu : 吃货蛙:害怕、恐惧、自己吓自己是门好生意 12/13 10:31
8F:推 CAFEHu : 牛顿:在股版常看到一堆和我一样搞研究的 12/13 10:35
9F:推 toeic900 : 不怕不怕第四天满血复活 12/13 10:46
10F:推 losage : 那篇论文如果成真,ai就有理解的能力,才是真正的 12/13 10:51
11F:→ losage : 智慧诞生。只拼算力完全无法理解问题,跟算的很快 12/13 10:51
12F:→ losage : 的智障一样 12/13 10:51
13F:→ amaqua : 买指数型ETF就好了,时间拿去运动比较实际啊 12/13 11:16
14F:→ water6 : 有千千万万个智障也是很猛啊,不过同意二楼,赚最多 12/13 11:20
15F:→ water6 : 的通常不是最理解产业前沿趋势的人 12/13 11:20
16F:→ ter2788 : AI需要的是人类这种 我不用计算结果 但我已经知道这 12/13 11:35
17F:→ ter2788 : 条路大概不行了 就是情感能力没错 12/13 11:35
18F:→ ter2788 : 人类最厉害的就是 靠着情感 直接把复杂的运算大量省 12/13 11:36
19F:→ ter2788 : 略 12/13 11:36
20F:→ ter2788 : 别管这种省略是对的结果还是错的结果 12/13 11:36
21F:→ tony1010 : 简单讲,世界前几大首富,会比一般人讯息还不透明 12/13 11:37
22F:→ tony1010 : ? 12/13 11:37
23F:→ ter2788 : 比较生动的形容就是 星海争霸 我感觉我经济输了 这 12/13 11:38
24F:→ ter2788 : 时应该偷一点才有赢的希望 实际上他可能什麽情报都 12/13 11:38
25F:→ ter2788 : 没有 12/13 11:38
26F:→ ter2788 : 所以人类才能使用极低的能量 做出极高的效率 12/13 11:40
27F:推 temwif : 每个月都要来一次鬼故事压股价,然後月底都是喷回来 12/13 11:54
28F:→ rfynw : 比起谈论一堆,接下来怎麽操作比较重要 12/13 12:02
29F:推 capssan : 2楼完美呈现了绝大多数人类的实际上的思维逻辑 12/13 12:15
30F:推 woker : 不用想太多就华西街想卖了 12/13 12:59
31F:推 CAFEHu : 大道至简蛙:收手吧,延伸文到处都是牛顿 12/13 14:05
32F:推 hotbeat : NV就最上游 google 又有自研又有应用 老巴频果全数 12/13 15:12
33F:→ hotbeat : 拿去换goog nvda 都很合理 openai 就洗洗睡 12/13 15:12
34F:→ hotbeat : 要探讨实际操作 每个月光是这种情形就饱了 还要想 12/13 15:14
35F:→ hotbeat : 东想西 不如就只买那几只安心出游爽 12/13 15:14
36F:→ hotbeat : 浪费那个时间研究还不会比较赚 12/13 15:15
37F:嘘 TWTP2018 : 小心有些外来分子狗嘴吐不出象牙见不得台湾好归刚ㄟ 12/13 17:35
38F:推 stocktonty : 等AI有想法的时候股市瞬间归零 洲际飞弹随便飞 12/13 17:59
39F:→ southes : 支障 12/13 20:31