作者LimYoHwan (gosu mage)
看板Stock
标题Re: [新闻] 美监管机构调查:特斯拉自驾系统存在「
时间Sun Jun 1 14:43:50 2025
※ 引述《LDPC (Channel Coding)》之铭言:
: 周末贡献我两分钱意见 竟然有人说waymo要收掉 在自从LLM Agent出现後@@
: 机器人领域疯狂发展 尤其自驾又开始卷起来 在大好战场线整合战前 把waymo收掉 @@?
: (=_= 让我想起2024 1月 提到业界要把LLM整合自驾 一堆人喷我不懂)
: https://ptt.reviews/Stock/E.S-E3eOc5k9jE
: 给个时间线
: 2024 5月 LLM Agent概念成立
: 2024 10月 Waymo 额外筹资56亿美元
: 2024 年底 Waymo引入Gemini 开始成立LLM Agent引入自驾
: https://ai.zhiding.cn/2024/1104/3161049.shtml
: https://reurl.cc/bWjoYX
: 机器人搭配Agent 现在就是AI界的战场 自驾开始在卷了
: https://reurl.cc/0K8eWK (美国最近一堆中国自驾公司部门在招人 @@b 大伙快上)
: https://zhuanlan.zhihu.com/p/16225874331
: 这条AI agent路可以通吃自驾和机器人 技术基石就是对现实世界的了解和路径规划
: 浓缩成几句话就是 机器人和自驾在技术底层有大量同性质 多模态LLM推理能力会成
: 为最後关键点 而关键点就是LLM Agent 所以搞自驾和搞机器人都会搞再一起
: (**题外话 阿祖最近开始疯狂招机器人@@)
: 回到特斯拉端对端(end2end)这种做法 无法做可解释planning和决策等更高阶
: 如果战场拉到LLM Agent 特斯拉唯一能依靠
: 就是xAI LLM模型 然後xAI目前人才招聘.....现在里面就各种乱
: 就引用nano-gpt fast run发起人Keller Jordan (现在openaAI)
: https://x.com/kellerjordan0/status/1893868235381961140
: Some trivia: In November I interviewed at both OpenAI & xAI.
: I thought both labs seemed strong, even tho ppl said xAI was a noncontender
ba
: -- the xAI guys told me all my ideas must be wrong & rejected me 佩_(ツ)_/?
: 回到股点 如果你想买个股票是看AI浪潮 目标是五年後 那你注意的地方就是
: 谁能掌握越多大模型的下游任务(自驾 搜寻 生成色色图片@@b 人工助手 虚拟助理)
: 有高黏度性用户 谁就能赢这场战役
: 而狗家现在就是 AR眼镜(虚拟助手 参照之前文章#1cH_ZPvT) 自驾 搜寻 影音媒体任务
: (e.g.notebookLM) 各种廖化调参数大军 尝试赢得用户黏度 我现在每个周末就是吃泡
面
: 每周买点狗家 @@ 但狗家的ceo有点抖就是....
: 不过如果你觉得这篇两分钱文章不对 一切以你意见为主@@b
Waymo迄今仍未把 LLM 正式「上车」
https://i.imgur.com/t3wEpKC.jpeg
截自今天遇到突发状况仍然会卡住
遇道路有三角锥卡住
https://i.imgur.com/1lB3C8w.jpeg
技术现况
Waymo 的商用仍采传统「感知 → 规划 → 控制」模组化架构,搭配高精地图、LiDAR 与
雷达;真正载客的车队并未让大型语言模型(LLM)直接参与即时决策。2024 年 10 月
,Waymo 对外发表了实验性 EMMA(End-to-End Multimodal Model for Autonomous Driv
ing),宣称透过 Google Gemini 提升多模态推理能力,但官方亦强调 EMMA 目前仍属研
究性质,尚未完全取代既有安全策控流程 。
若要把 LLM 真正塞进量产车,Waymo 得先解决三大难题
1. 安全与法规验证 – LLM 推理结果难以逐条验证;在 ISO 26262、UL 4600 等汽
车
能安全框架下,要让「黑箱」模型直接操控方向盘,监管单位与保险业者都更谨慎。
2. 车载硬体与成本 – LLM 推理需更高算力与记忆体。若要在车端即时运行、势必
升
GPU/NPU,会垫高车辆 BOM 成本与耗电负载。
3. 商业节奏 – Waymo 以「安全零容忍」为品牌资产:不确定就停车、需远端人员
介
。全面切换新架构若导致早期稳定性下降,将直接伤害乘客信任。
财务压力
2024 年 10 月,Waymo 完成 56 亿美元增资,由 Alphabet 领投,累计对外融资已逾 10
0 亿美元 。然而 Alphabet「Other Bets」部门单季仍要亏损逾 10 亿美元,而分析
师推估 Waymo 年亏损约 15–20 亿美元,营收仅数千万美元级别 。在此现金流结构
下,引入 LLM 虽能改善体验与灵活性,但同时会推高硬体与验证成本,延长盈利时程。
Tesla E2E:LLM「可有可无」的另一条路
若 Tesla 日後把自家 xAI LLM 叠在 E2E 之上,主要带来少量增益:
自然语言互动 – 乘客可用语音直接改路、查询车况。
车队後台优化 – 在云端用 LLM 做调度、维护及客服。
然而,Tesla E2E 核心已能覆盖大部分驾驶行为;LLM 只是「提升体验」而非「补安全短
板」,引入迫切性相对 Waymo 小。
Waymo 若将 LLM 深度整合,可望显着降低「遇特殊障碍就卡住」的保守行为,并提升乘
客互动体验;但必须支付更高硬体、验证与研发成本,进一步拉长本就沉重的烧钱周期。
Tesla 在 E2E 架构下已拥有低边际成本与庞大真实世界数据,LLM 更多是锦上添花;短
期不必为此承担显着成本,长期则可用於语音服务与後台营运。
简言之,Waymo 更「需要」LLM 才能突破商业化瓶颈,但最痛的也是成本与法规;Tesla
e2e则「用得好更完整,用不到也跑得动」。
在自驾战局真正分胜负之前,谁能把技术升级的成本曲线压得最低、又最快通过监管门槛
,谁就更接近最终的赢家。
以下数据是消费者付费:
Elon Musk 预测的 Tesla Robotaxi
预估未来每公里约 $0.19–$0.25 美元,是主打超低成本的愿景,强调靠大规模、纯
视觉系统压低价格。
真人 Uber / Lyft
美国主要城市平时每公里约 $1.2–$1.8 美元,尖峰时段与大城市(如纽约、旧金山)甚
至达到 $2–$3 美元。司机人力成本是主要成本来源。
Waymo Robotaxi
凤凰城:每公里约 $1.2–$2 美元,与 Uber 价格接近。
旧金山:因感测器、地图与营运成本高,每公里平均约 $7.4 美元,远高於 Uber。
运营成本:
Uber / Lyft:人力成本占大头,实际单公里营运成本可能接近乘客付费价(甚至略高,
平台依靠抽成与动态定价赚利润)。
Waymo:据内部估算,单公里成本 $0.30–$0.40/km,但目前收费(特别是在旧金山)
远高於成本,原因是要摊提研发、感测器、地图更新、公司营运与早期投资回报,如果加
入LLM会更高。
Tesla Robotaxi(预测值):Elon 说的是营运成本 $0.12–$0.15/km,但这仅是假设值
,还未实现。
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 42.73.72.160 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1748760232.A.485.html
※ 编辑: LimYoHwan (42.73.72.160 台湾), 06/01/2025 14:46:10
1F:→ LDPC : 跟你说啦TSLA已经在放LLM 之前找我面tech lead role06/01 14:49
E2E 视觉网路已能直接学人类驾驶行为;插入 LLM 反而打破「少模组、可大规模扩张」
的设计初衷
有迹象显示 Tesla 正在「车内」测试 LLM(Grok/Foundation-Model),但目前仅用於
语音助理与高层互动,**没有公开证据表明 LLM 已被接入 FSD 的即时驾驶决策。
2F:→ jakkx : ...TSLA的超大本梦比就建筑在LLM上面…06/01 14:54
E2E 模型完全由影像→控制信号,不含语言推理
3F:推 a95641126 : waymo这个垃圾看到三角锥还会卡死06/01 14:54
4F:→ a95641126 : 笑死06/01 14:54
5F:→ a95641126 : 一直靠远程遥控员 不丢脸吗06/01 14:54
6F:→ a95641126 : 远程遥控员介入06/01 14:54
7F:→ a95641126 : 还故意不算入统计数据 人为接管06/01 14:55
8F:→ a95641126 : waymo跟中国那群二货自驾有什麽差异06/01 14:55
9F:→ a95641126 : 远程遥控不算人工接管06/01 14:57
10F:→ a95641126 : 要现场人员去移车 才叫做接管06/01 14:57
11F:→ a95641126 : 跟中国二货自驾一样06/01 14:57
12F:→ a95641126 : 靠作弊消息骗只会「第一层思考」的赔钱韭菜06/01 14:57
13F:→ a95641126 : waymo这麽做骗一堆韭菜去投资06/01 14:58
14F:→ a95641126 : 以为waymo自驾车最强06/01 14:58
※ 编辑: LimYoHwan (42.73.72.160 台湾), 06/01/2025 15:00:28
※ 编辑: LimYoHwan (42.73.72.160 台湾), 06/01/2025 15:01:34
15F:→ LDPC : @@ 楼上的确内行 那是个实验专案 隶属robotaxi 06/01 15:01
16F:→ LDPC : e2e就是无法解决资料没落地场景 所以才有genAI 06/01 15:03
17F:推 a95641126 : 光达狗把waymo当成自驾圣杯 06/01 15:05
18F:→ a95641126 : 结果光达连前面淹水都看不到 06/01 15:05
19F:推 a95641126 : 害得waymo直接冲入水里 乘客差点吓死 06/01 15:09
20F:→ a95641126 : waymo除了 冲去河里 撞墙 撞工地外 06/01 15:10
21F:→ a95641126 : 头顶上那颗光达到底是干嘛的 06/01 15:10
22F:→ a95641126 : 光达看不清楚吗 xdxd 06/01 15:10
23F:→ zzahoward : E2E 一样也是Blackbox阿 06/01 15:13
24F:→ LDPC : LLM也可以搞成e2e 在fine-tune阶段做就行 06/01 15:15
25F:→ LDPC : 主要是e2e对资料数据需求高 数据须包求所有场景 06/01 15:15
26F:→ LDPC : LLM就得真的换硬体架构 所以现在都是实验性质专案 06/01 15:16
27F:→ LDPC : 另一种解法就是合成数据 这样就可以继续用e2e 06/01 15:18
28F:→ LDPC : 反正原篇是想吐槽某老兄说waymo要关门@@ 06/01 15:19
29F:推 michellehot : LLM的最大问题是反应慢 为什麽要走E2E因为反应才快 06/01 15:21
30F:→ michellehot : 你在路上还有速度用LLM如何做决策?看到障碍想一下 06/01 15:21
31F:→ michellehot : 然後先撞上障碍物 LLM再决策说你该闪避 06/01 15:22
32F:→ LDPC : =_=楼上 LLM反应慢这问题可以解决 速度是由记忆体 06/01 15:22
33F:→ LDPC : 和模型大小决定 kv-cahce压缩和multi-token等 06/01 15:23
35F:→ LDPC : 我没反对特特有机会统治江湖 但Lim大讲的成本是个好 06/01 15:28
36F:→ LDPC : 议题 @@其余的说啥waymo要倒闭这个就值得吐槽 06/01 15:28
37F:→ LDPC : 如果题目变成e2e是唯一解 那我解法就是得要3D合成 06/01 15:30
38F:→ LDPC : 不然没见过场景(zero-shot)就是e2e卡点 06/01 15:30
39F:→ LDPC : =_=决定砍文好了 都变成两派吵架文 06/01 15:49
40F:推 Bigbag7 : LDPC别删啊qq,这串讨论超有趣的,抛砖引玉很有价值 06/01 15:58
41F:→ Bigbag7 : 啊 06/01 15:58
42F:→ Bigbag7 : 想请问您,另一篇文有提到waymo可以辨识警察手势前 06/01 15:58
43F:→ Bigbag7 : 进,在没有远端操纵的前提下,这是怎麽做到的呢?谢 06/01 15:58
44F:→ Bigbag7 : 谢 06/01 15:58
45F:→ leviathen : 车载算力成本才是LLM无法在车载大量部署的难点,现 06/01 15:59
46F:→ leviathen : 阶段LLM即便deep seek r1也有671B,放车上即便GPU算 06/01 15:59
47F:→ leviathen : 力够能耗也不够你跑多远。另一个问题就是资料,tesl 06/01 15:59
48F:→ leviathen : a资料是很多,但是车载上其实有更多莫名其妙案例需 06/01 15:59
49F:→ leviathen : 要GenAI,缺最後edge case资料才是最麻烦的问题。 06/01 15:59
50F:推 willtaiwan : 广义来说LLM或通用模型也是通过人类数据学习,只是 06/01 15:59
51F:→ willtaiwan : 文本加上影片数据量可能比e2e更大而已?所以落地场 06/01 15:59
52F:→ willtaiwan : 景这个也只是数据量问题,另外我查过也有人做e2e加 06/01 15:59
53F:→ willtaiwan : 上cot的理论不知道这个是否可以更优化推理能力 06/01 15:59
54F:推 leviathen : 目前这些公司对LLM是想要来取代远端遥控降低成本, 06/01 16:02
55F:→ leviathen : 真上车可没那麽容易 06/01 16:02
56F:→ leviathen : E2E+CoT个人觉得重点在於降低恐怖谷效应,最佳化E2E 06/01 16:17
57F:→ leviathen : 反而可能会吓死乘客,用户体验度不见得好 06/01 16:17
58F:推 ozaki1986 : 电动车就被中国卷烂,在怎麽发展一样赚不到钱,呵 06/01 16:21
59F:→ ozaki1986 : ,特市值就败在电动车领域投资太多 06/01 16:21
60F:推 StarburyX : 车端算力已经锱铢必较了 根本挤不出来 06/01 16:27
61F:→ StarburyX : 放LLM抢算力 本末倒置 06/01 16:28
62F:→ StarburyX : 理想已经实作一次了 还不是惨惨惨 06/01 16:29
63F:→ StarburyX : WAYMO可以多加几颗晶片试试 成本又控制不来 06/01 16:30
64F:推 StarburyX : E2E的结果跟LLM结果冲突的话听谁的? 06/01 16:32
65F:推 StarburyX : 这个问题几个月前X圈已经讨论过了 06/01 16:33
66F:→ StarburyX : 结论 这是搞不出来E2E时 用的范式 06/01 16:34
67F:→ StarburyX : 当初以为可以靠LLM克服E2E做不出来的问题 06/01 16:35
68F:→ StarburyX : 结果实作出来 又耗算力 效果还超差 06/01 16:37
69F:推 StarburyX : 能试的 中国厂商都已经试过一遍了 06/01 16:39
70F:推 greedypeople: 特斯拉预估那个我记得是营运成本 不是实际价格啦 06/01 16:41
71F:推 Lhmstu : 老马的说法都要先打个对折才行,所以实际可能成本 06/01 16:49
72F:→ Lhmstu : 应该是 0.24 -0.30 06/01 16:49
73F:推 casper955033: Robotaxi如果是Waymo一半价钱,Waymo跟Uber大概没人 06/01 19:09
74F:→ casper955033: 要搭乘 06/01 19:09
75F:→ weichungBRO : 玛黑跟特黑打死都不会坐robotaxi 06/02 01:21
76F:推 NAMESTANLY : 没事啦 几年前也一堆人不搭高铁 06/02 15:56