作者wangrg (孤身不寂寞)
看板Stock
标题Re: [新闻] Google 最新 Gemini 3 模型正式推出!即
时间Wed Nov 19 23:51:19 2025
※ 引述《longtimens (阿卷)》之铭言:
: 讲那麽多吹的天花乱坠
: 到底可以变现多少?
: 还是看不出来可以产出多少利润啊
: 完全看不出来可获利的商业模式是什麽?
: 塞广告吗?靠订阅真的有办法撑起这样的投入金额吗?
: 除非成本真的往下杀,不然怎麽看都是亏啊
引用
https://news.cnyes.com/news/id/6242913
节录『重点』
Gemini 3.0 Pro 是基於 谷歌 自研的 张量处理单元(TPU) 训练而成。
相较於 CPU 或通用 GPU,TPU 在处理大语言模型所需的大规模计算时速度更快,
且配备的大容量高频宽记忆体能高效运行超大模型与批量资料,使 谷歌 在训练
硬体上无需苦苦等待外部供应,实现了晶片的跨越式发展。
结论:
这对nvda不算个好消息,毕竟证明了『不使用他家的GPU』可以训练出顶级模型
--
│ ███ ▂▄▃
││││
│ ˋ ◤ ◥││││ 「为什麽
,
│ ‵ ◤ ◥▏ _▂▁ ▋
│││ 为什麽又收到卡片了
│ ′ 、▌█
▊▉▏ │ 哭哭
……
…」
◢ ◤◢
◣▋◢ █
▋▊ ▕▅▇
◥◥*
◢ ▂▇ˋ█▆◤
▂_ ▁▄▆▇▃ copy from mooncats
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 85.237.207.52 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1763567481.A.D6A.html
1F:嘘 D600dust : 你回完就开始A了 11/19 23:52
2F:推 KTFGU : 老黄GG ,没人要买GPU训练了 11/19 23:53
3F:推 goodevening : nvda 的gpu就是通用模型阿,啥都可以跑,tpu就很限 11/19 23:55
4F:→ goodevening : 定了,出发点本来就不同 11/19 23:55
5F:推 yousking : 开高走低明天就白刃战了XD 11/19 23:55
6F:→ YU0121 : 还有个npu 你没提到 11/19 23:56
7F:推 taihsin : 需求减少 对nvda肯定不是好事 11/19 23:59
8F:推 abc21086999 : 你是不是不知道自己在说什麽XD 11/19 23:59
9F:推 a210510 : 谷歌牛逼 靠自己就能跟NV对打 11/20 00:00
10F:推 partsex : tpu就是一种ASIC 11/20 00:00
11F:→ partsex : 没这麽多新奇 11/20 00:00
12F:→ partsex : 一样要和AVGO一起设计 11/20 00:00
13F:推 windfeather : 目前AI的未来性还有不少质疑 11/20 00:01
14F:→ windfeather : 多几个人一起冲,比只有一只领头羊要好多了 11/20 00:01
15F:推 partsex : GPU可以训练自驾车 也可以训练LLM 11/20 00:02
16F:→ partsex : TPU就是专用特定任务而已 通用性不够 11/20 00:03
17F:→ heavensun : 估狗当然不愿受制於辉达 搞自己的路 11/20 00:06
18F:→ heavensun : 老黄要降价 阻止大家研发替代方案 11/20 00:06
19F:推 xhs : 台湾设计tpu的公司,好像没办法参与google 11/20 00:07
21F:推 zxcvbnm2010 : 有你这篇文 我就放心了 11/20 00:12
22F:→ partsex : 希望NVDA财报後 大盘崩盘 不然就先反弹一天 在崩盘 11/20 00:19
23F:→ ookimoo : 1.假AI就是演算法的演进而已.. 11/20 00:23
24F:→ ookimoo : 2.NV会回30元 11/20 00:23
25F:推 Brioni : AMD还没能跟NV一较高下就来了个新王者 11/20 00:24
26F:→ ookimoo : 3.Gemini的领先只是赛马局 某批马暂时领先 11/20 00:25
27F:推 heavensun : Google是降低GPU使用数量 省钱部分演算挪去TPU 11/20 00:26
28F:推 redbeanbread: 多一些东西 多一点泡沫 11/20 00:28
29F:推 hotbeat : 别忘了台积产能满载… 11/20 00:28
30F:推 Brioni : 奥特曼半年内拿不出屌的这1兆美元趴踢就结束了 11/20 00:29
31F:→ ifay : 明天开高走低 11/20 00:33
32F:推 Heptagram : TPU AlphaGo时代就有在用 但是只租不卖 不普及 11/20 00:49
33F:→ strlen : Google落後了快六个月才领先一点 你就说TPU可取代.. 11/20 00:52
34F:→ strlen : 过两天又什麽模型刷榜了 是不是TPU又没用惹XD 11/20 00:53
35F:推 zero7810 : 你这样说就表示你真的不懂啊 11/20 01:04
36F:推 a28200266 : 也只有google能这麽搞就是了 11/20 01:08
37F:推 lulululula : LMarena前几个月是gemini2.5霸榜前几天grok才被拉下 11/20 01:13
38F:→ lulululula : 去的好吗 11/20 01:13
39F:推 h0103661 : gemini什麽时候霸过了,一直都是偏笨的那一团 11/20 01:17
40F:→ fitenessboyz: 这麽晚了还有娱乐文出来 11/20 01:19
41F:推 csghuuguh : 你的结论基本是屁话,不用NV的晶片要付出什麽代价和 11/20 01:21
42F:→ csghuuguh : 风险? 11/20 01:21
43F:推 w28103566 : 好,别卖给他 11/20 01:52
44F:推 chanel1259 : 好了啊你们都要用台积电对吧 11/20 02:00
45F:推 bannasung : 明天创意会喷吗 11/20 02:03
46F:嘘 beagle2001 : Dipshit 最强 11/20 02:17
47F:推 MyKal1001 : Tpu 要绑Google生态系 没那麽容易 11/20 02:48
48F:→ mtmmy : 反正这篇会自删 11/20 05:23
49F:推 BeamRay : 但刚才财报570b欸,比超扯高的预期还高 11/20 05:34
50F:推 keven92110 : tpu也可以训练吗 我以为比较能跑推理 11/20 06:02
51F:→ fallinlove15: 以後要走矽光子 这差距会变小 11/20 06:51
52F:→ fallinlove15: 我觉得TPU是小事 重点是谷歌有自己研发的能力 加上 11/20 06:53
53F:→ fallinlove15: 自有庞大生态链 这才是对NV最大的威胁 不过这也只 11/20 06:53
54F:→ fallinlove15: 限电脑生态 其他领域还多的是机会 11/20 06:53
55F:→ mdkn35 : 都涨一倍了 以後开始卖tpu 11/20 07:09
56F:嘘 FireStarman : 这篇某些蠢空真的没救 11/20 07:24
57F:推 beforelin : 大高高超大批量 11/20 07:51
58F:推 downtoearth : 对NV不是好消息 但对於整个AI的未来是好消息 11/20 09:16
59F:→ downtoearth : 只有一个生态 从来都不是健康的 11/20 09:16
60F:推 henrylin8086: G社有足够大的体量自己干软硬体,而且硬体规格抓在 11/20 09:19
61F:→ henrylin8086: 自己手上,爱怎麽魔改就怎麽魔改。 11/20 09:19
62F:→ annboy : Google TPU 做好多代了 11/20 09:21
63F:嘘 edison106 : 估狗tpu 搞十几年了 其他家可没有这底蕴 11/20 12:33
64F:推 lasekoutkast: 百家争鸣是好事啊 11/20 13:24
65F:→ sonatafm2 : 这对AI发展来讲是好事 有竞争才会有进步 而且各有 11/21 00:00
66F:→ sonatafm2 : 优劣 11/21 00:00