作者LoveSports (我要当一个渣攻)
看板Stock
标题Re: [新闻] AI真会重演.com泡沫?那场从1995一路
时间Mon Nov 24 09:30:42 2025
※ 引述《a5mg4n (a5)》之铭言:
: 还能一眼看出的简单常识性错误:
: 1.「每个汽缸只有一个活塞」
: 那这款1930年代至今畅销,
: 还被苏联跟中国大量仿造,一度垄断两国铁路的经典美国产品是?
: https://i.meee.com.tw/RLJsxew.jpg
: 2.似乎更严重的逻辑错误:
: 「一个汽缸通常只有一个活塞,所以不会有『三个活塞间...」
: 既然都知道「通常」了,怎麽会接「所以不会有」呢?
: (正常的推理能力,应该会开始说各种奇怪的方案)
: ===
: 现在的AI继续下去,也许是蠢蛋进化论的另一种实作方式?
https://i.imgur.com/xwLlIGr.png 这是我用AI模式问的
要善用工具,要先了解工具的优缺点与属性。
还有了解自己本身使用工具的能力(语言表达能力,主要是"认知学术的语言能力")。
这篇只针对前者讨论。对後者有兴趣的可参见这篇:
#1f4-2kN3 (Gossiping)
先说结论:你挑AI模式测试,来论证LLM都是蠢蛋,这个前提就有问题了。
AI模式是Google搜寻的统整版,他的主要功能是在用户做多重查询时做整合,
方便用户得到全面性的回答。
权重设定是放在精简与全面性,而非深度搜寻。
你今天要查一个冷门的历史上的技术性知识,拿AI模式来查会更难找到你要的答案。
这种情况还是问得出来(例如我上面贴的图那样),但是指示词要下得比较精确。
例如:「历史上所有的」、「辅佐的」、「请务必详细搜寻与解释」
如果你不想那麽麻烦,就请找LLM平台例如直接找Claude或Gemini或GPT或Grok,
LLM平台着重的是专业领域深度探讨,你能更快甚至用更简略的指示词问到你的答案。
(我拿你的问题实测确认过了)
==================================================================
藉这篇宣导一下权重的重要性。
假设有一些满脑子装色情幻想的白痴,问的色情问题有扯到B&W,
类似的这类问题一多,而且色情用户如果蠢到点赞,或一直问被判定是正向回馈,
下次系统更新的时候,AI的权重就会被改变,那些色情回答权重会变高,
相对的冷门专业技术性的权重就变小。
以後想问B&W相关问题的人,就越问不出专业技术性的答案。
所以为什麽宣导不要为了问色情问题越狱,因为越狱成功讨到色情回答,
会影响到模型权重,其他用户问问题就越问不出正确回答,指示词得下得极度精确。
甚至更严重可能会导致安全层失效,间接造成LLM无法开启安全防护保护脆弱用户。
============================================================
最後补充一点,AI模式会把用户在Google搜寻问过的问题纳入个人化偏好参考。
如果用户常在Google搜寻问生活化或粗浅的问题,AI模式也会偏向给同类型的答案。
平常问得越专业用字越严谨,他就会倾向帮你找冷门专业知识。
所以假如不想被当成蠢用户,要定期检查一下自已的google搜寻纪录。
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 95.173.204.91 (日本)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1763947845.A.256.html
1F:推 sdbb : 谢谢 11/24 09:45
======================
修正: 八卦板文章讨论用户输入的语言的是这篇
#1f4-2kN3 (Gossiping) 刚才写错代码
2F:推 nfsong : 现在是百工百业专业模型时代 11/24 10:47
3F:→ nfsong : 一般人用不到,都闭源的 11/24 10:47
4F:→ nfsong : 这部分是要收钱的,很贵 11/24 10:48
原PO举例的问题一般的LLM就问得出来了,AI模式也可以,
尤其後者,指示词要下得精确一点,不然AI很难从海量一般生活常识中捞出专业答案。
权重的意思是"相对的重要程度",我们人类大脑也有权重,
所以才会说自己问的纪录,跟大家集体问问题的纪录都是关键,会影响模型权重偏移。
※ 编辑: LoveSports (95.173.204.91 日本), 11/24/2025 11:16:00
5F:→ a5mg4n : 1.如果要下这麽多提示,用人脑就想完了,或者说,就不 11/24 12:15
6F:→ a5mg4n : 用问了 11/24 12:15
就算不问AI,门外汉自学也容易出错,跟自学时书不能只看一本的道理差不多。
以前没有AI可以问,自己GOOGLE也是要确认正确性,现在有AI方便统整跟搜寻,
但正确性还是要自己确认。如果没有人类专家或书籍可以比对,可考虑多丢几家AI比较,
叫他们互相检查正确性。
举实例,比方说你刚才问的那题,我是完全的门外汉,我还一度把B&W当成汽车厂商。
所以我确认正确性是多家AI都丢,叫他们互相纠错。
7F:→ a5mg4n : 2,八卦版的文章,正好是LLM的问题:对於使用者不明了 11/24 12:18
8F:→ a5mg4n : 的事,怎麽会知道提示是对的还是错的? 11/24 12:18
其实你的原文本身就已经回答这个问题了,因为你事先知道答案,甚至有图面,
所以你知道什麽是正确回答。
一个什麽知识都没有、又不想做进一步确认的人,就无法得知是否得到正确答案。
以下这样说应该就比较容易理解了:AI不是神不是真的全知全能,
他们只是工具,工具有可能出错。
所以理解工具的优缺点与属性很重要,用户本身输入能力(包括储备知识)也很重要。
※ 编辑: LoveSports (95.173.204.91 日本), 11/24/2025 12:38:36