Tech_Job 板


LINE

AI 模型越讲越歪楼!最新研究发现:AI 对话愈深入,表现愈糟糕 https://tinyurl.com/ylvt36k2 人工智慧(AI)已经不是什麽遥不可及的未来科技,从写作、翻译到客服,它早就成为我 们工作与生活的一部分。但你有没有发现一件事:刚开始和 AI 聊天时,它总是回答得头 头是道,让人惊呼「也太聪明了吧!」 但一旦对话拉长、你问得更深入,AI就开始卡住、兜不回来,甚至出现自相矛盾的情况。 这并不是你遇到了Bug(程式错误),也不是你问得太难,而是一个所有语言模型都面临 的通病。 根据Microsoft和Salesforce最新研究,这种越聊越不对劲的现象,其实是语言模型在对 话中普遍存在的结构性问题。研究团队模拟了20万笔对话,测试了包含GPT-4.1、Claude 3.7、Gemini 2.5 Pro在内的15种主流模型。 结果发现,这些模型在第一次对话中的表现非常出色,成功率高达90%;但一旦进入第二 次、第三次……成功率就像跳水般下降,只剩下约60%。更令人吃惊的是,这个问题几乎 无法靠目前常见的技术调整解决,也让人开始反思:我们所谓发展快速先进的AI,真的准 备好成为对话中的夥伴了吗? AI对话为什麽越聊越糊涂? 你可能以为AI出错,是因为它记不住前面的内容。但实际上,问题的关键不在记性不好, 而是「太急着表现」。研究指出,当语言模型在对话中接收到不完整的资讯时,它往往会 急着下结论,就像学生考试时还没看完题目就开始写答案。结果是,前面的假设错了,後 面的逻辑也一路歪掉。不但无法修正,还会自我坚持,继续补充一堆看似合理、其实错得 离谱的细节。 这种现象让人联想到人类的「强辩」行为,但AI的版本更棘手,因为它不具备我们的怀疑 机制。我们人类如果说错话,有时会停下来想想:「欸,好像不太对?」然後修正,但AI 模型目前还做不到这一点。它们无法意识到「我是不是不确定这件事?」一旦答错,就一 路错到底。 这也显示一个关键问题:语言模型目前的设计逻辑,还是偏向一次性任务。可惜,现实中 的对话并不是这样进行的。我们经常是一边说、一边厘清需求,问题是模糊的、资讯是渐 进式的。 改参数、加推理,为什麽都没用? 遇到问题,工程师们当然会立刻想:「是不是参数设错了?」於是研究团队试了所有常见 的调整手段:调整温度(temperature)参数(让回答更保守或更冒险)、延长记忆长度 、提升推理模组的能力等等。但这些努力,几乎都无法明显改善模型在多轮对话中的表现 。换句话说,这不是模型参数调得不够好,而是架构上的天生缺陷。 这背後的问题,其实出在训练逻辑。过去语言模型的训练大多使用单次问答的资料:一句 话问、一句话答,任务清楚、资讯完整。但实际生活中,深入多次对话才是常态,而且常 常一开始就资讯不清、问题不明。模型不习惯在模糊中摸索,就像一个只会背答案的学生 ,突然被拉去参加即兴辩论比赛,自然是招架不住。 未来如果要让AI成为真正的对话帮手,我们也许不能再把训练重点放在「更准确地回答」 ,而要转向训练它「更懂得等待与厘清」。举例来说,模型应该学会辨识使用者问题的不 确定性,并主动反问:「你是指这个意思吗?还是那个?」也许它还该学会「不急着给答 案」,而是试着引导对话走向更清楚的方向。这才是对话真正的本质,而非只是问与答的 机械式循环。 这次的研究结果,打破了我们对语言模型的想像。表面上看,AI越来越能模仿人类语言、 理解语意,但当我们拉长对话、要求它「听懂人话」,问题就浮现了。AI聪明没错,但还 不够谦虚、不够小心,也不够愿意说「我不知道」。这反而让我们更理解了人类对话的精 妙之处:我们不只是会说话,而是懂得等对方说完,懂得保留模糊,也懂得在必要时改变 想法。 下一步的语言模型发展,或许该从「更会讲」转向「更会听」;从「给答案」转向「与人 探索」。要做到这一点,还有很长一段路要走,但这也正是我们让科技真正贴近人性、创 造价值的关键所在。 --



※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 180.177.1.4 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Tech_Job/M.1747963138.A.E43.html
1F:推 flash789 : AI泡沫 怕.jpg223.139.104.114 05/23 09:20
2F:推 zonppp : 魔鬼终结者要来了 36.226.212.61 05/23 09:22
3F:推 longlyeagle : 雀食 57.140.96.51 05/23 09:39
4F:推 GoodLuck01 : 好像有看了什麽, 但又像没看了什麽 61.221.155.73 05/23 09:43
5F:→ xvited945 : 让AI听懂人话要很长一段路?当初说 36.224.197.167 05/23 09:45
6F:→ xvited945 : 要让Siri聪明一点也说要很久,结果 36.224.197.167 05/23 09:45
7F:→ xvited945 : 各语言模型如雨後春笋问世,好了啦 36.224.197.167 05/23 09:45
8F:→ xvited945 : 记者 36.224.197.167 05/23 09:45
9F:推 Ryoma : 真人都会听不懂人话或没逻辑应答了 211.23.161.10 05/23 09:56
10F:推 hensel : 蹲的越久 脚就越麻114.136.168.241 05/23 10:22
11F:推 lovebridget : 这篇AI写的吗220.130.196.217 05/23 10:35
12F:推 endisonlin : 我也觉得这记者很赞 42.72.103.1 05/23 10:46
13F:推 lovebridget : 其实人更不会听吧 还会反呛陷害220.130.196.217 05/23 10:49
14F:→ lovebridget : AI你跟他说不对他马上改口 我还觉得220.130.196.217 05/23 10:50
15F:→ lovebridget : 他太会顺着你太舔不准确220.130.196.217 05/23 10:50
16F:推 lastsodeep : Siri 有聪明过吗? 101.10.222.202 05/23 11:09
17F:嘘 alvinlin : 无聊。这话题已经大概是半年前的事180.177.212.126 05/23 11:09
18F:→ alvinlin : 情了。最近有改善很多了啦180.177.212.126 05/23 11:09
19F:推 mmonkeyboyy : AI 就跟某些(国)人一样 舔狗啊~ 73.70.62.211 05/23 11:21
20F:嘘 alvinlin : 记者不要老是把「旧」闻当「新」闻180.177.212.126 05/23 11:30
21F:→ alvinlin : 写好吗180.177.212.126 05/23 11:30
22F:→ alvinlin : https://arxiv.org/abs/2307.03172180.177.212.126 05/23 11:30
23F:→ la8day : 人会说:乾我屁事 这锅为什麽要我 61.230.28.15 05/23 11:58
24F:→ la8day : 背 你去找其他人 61.230.28.15 05/23 11:58
25F:推 motan : 人类需要的是方便的工具,而不是真 101.12.176.125 05/23 12:19
26F:→ motan : 的新物种 101.12.176.125 05/23 12:19
27F:推 zaiter : 蛮低能的文章 文组写的不意外 49.215.156.48 05/23 13:22
28F:→ zaiter : 感觉这记者还有将这个 比AI还智障 49.215.156.48 05/23 13:23
29F:→ Arashi0731 : 真人也是吧,讲一讲就不然你要投国 111.83.107.120 05/23 13:37
30F:→ Arashi0731 : 民党? 111.83.107.120 05/23 13:37
31F:→ piyobearman : 人和人谈到後面也是啦 101.12.146.2 05/23 13:44
32F:→ kaltu : Bert 时代就在讲的东西撑过GPT用了 100.8.245.106 05/23 13:48
33F:→ kaltu : 半个decade终於出现在文组的文章里 100.8.245.106 05/23 13:48
34F:→ kaltu : ,所以说工程师面对跟技术脱节或根 100.8.245.106 05/23 13:48
35F:→ kaltu : 本非技术的主管永远要记得他们的知 100.8.245.106 05/23 13:48
36F:→ kaltu : 识永远落後时代,但他们又有实权 100.8.245.106 05/23 13:48
37F:推 Hack : 这研究不是这个月才release的吗 连 42.79.103.235 05/23 13:59
38F:→ Hack : 文章都不会点进去看 怎麽还好意思 42.79.103.235 05/23 14:00
39F:→ Hack : 呛Zzz 42.79.103.235 05/23 14:00
40F:推 Hack : 留言的那篇 连文章标题都不对… 42.79.103.235 05/23 14:03
41F:→ tokeep : 不是AI没用,是你的AI没用118.231.192.235 05/23 14:15
42F:推 kakar0to : 靠杯 讲半天就是说AI没办法好好 1.34.223.241 05/23 14:41
43F:→ kakar0to : 思考在回答 之前黄仁勳就有说这能 1.34.223.241 05/23 14:41
44F:→ kakar0to : 解决了 1.34.223.241 05/23 14:41
45F:→ Killercat : 其他不敢说 不过按照向量资料库原理 57.140.96.34 05/23 14:43
46F:→ Killercat : 来讲 要让他讲出"我不知道"是很难的 57.140.96.34 05/23 14:44
47F:→ Killercat : 因为无论如何该embedding附近都可以 57.140.96.34 05/23 14:44
48F:→ Killercat : 找到解 57.140.96.34 05/23 14:44
49F:→ acgotaku : 其实训练资料越多 回答的越正确 1.169.171.23 05/23 15:22
50F:→ acgotaku : 只是这个正确答案 无法迎合人类 1.169.171.23 05/23 15:22
51F:→ acgotaku : 的正确答案 1.169.171.23 05/23 15:23
52F:→ acgotaku : 就像我们都很难跟诺贝尔奖得主沟通 1.169.171.23 05/23 15:25
53F:→ acgotaku : 但是普通人与普通人沟同就能对频 1.169.171.23 05/23 15:25
54F:推 fyb : 到时客服人员都不在是真人 Ai主动 43.210.0.7 05/23 15:45
55F:→ fyb : 思考解决所有问题 43.210.0.7 05/23 15:45
56F:推 abccbaandy : 真实阿,一两句解决不了的再问也是 1.34.13.108 05/23 16:03
57F:→ abccbaandy : 浪费时间 1.34.13.108 05/23 16:03
58F:→ D600dust : 不就跟青鸟一样 不会认错 1.160.220.193 05/23 16:53
59F:→ yesyesyesyes: ai 回答的是你要的,不是正确解答 101.9.100.212 05/23 17:00
60F:推 j401f2 : 真人有好到哪里去吗…一堆有偏见的 42.70.175.12 05/23 17:45
61F:→ j401f2 : 根本无法理性沟通 42.70.175.12 05/23 17:45
62F:嘘 alvinlin : 感觉有人英文看不懂。看中文吧。1年180.177.212.126 05/23 18:16
63F:→ alvinlin : 了180.177.212.126 05/23 18:16
64F:→ alvinlin : https://zhuanlan.zhihu.com/p/6786180.177.212.126 05/23 18:16
65F:→ alvinlin : 14880180.177.212.126 05/23 18:16
66F:推 Hack : 要不要去看看眼睛 标题一样吗?这篇 42.79.103.235 05/23 18:43
67F:→ Hack : 文章的原文是什麽时候发表的要不要 42.79.103.235 05/23 18:43
68F:→ Hack : 看看 42.79.103.235 05/23 18:43
69F:推 Hack : 标题抓到「Lost」就开喷Zzz 两篇探 42.79.103.235 05/23 18:52
70F:→ Hack : 讨的是同一件事情吗?这年头读书不 42.79.103.235 05/23 18:52
71F:→ Hack : 犯法 多念一点吧 42.79.103.235 05/23 18:52
72F:→ toaste791214: 其实人脑的思维、逻辑判断还是赢过 42.79.100.127 05/23 20:02
73F:→ toaste791214: 电脑的,不然上帝为什麽要创造人? 42.79.100.127 05/23 20:02
74F:→ toaste791214: 而不是创造电脑?另外光看现在的研 42.79.100.127 05/23 20:02
75F:→ toaste791214: 发人员、决策者还是人类就知道了。A 42.79.100.127 05/23 20:02
76F:→ toaste791214: I说穿就是很方便的自动化软体而已。 42.79.100.127 05/23 20:02
77F:→ wasitora : 上帝XDDDDD 36.231.14.177 05/23 20:08
78F:推 wrt : 操 这AI是傻鸟吗?死不认错124.218.220.239 05/23 21:40
79F:→ alvinlin : 根据两篇论文——2024年发表的《Los180.177.212.126 05/24 01:42
80F:→ alvinlin : t in the Middle: How Language Mod180.177.212.126 05/24 01:42
81F:→ alvinlin : els Use Long Contexts》(简称Lost180.177.212.126 05/24 01:42
82F:→ alvinlin : in the Middle)和2025年发表的《L180.177.212.126 05/24 01:42
83F:→ alvinlin : LMs Get Lost in Multi-Turn Conver180.177.212.126 05/24 01:42
84F:→ alvinlin : sation》(简称Lost in Conversatio180.177.212.126 05/24 01:42
85F:→ alvinlin : n)——这两篇论文都讨论了大型语言180.177.212.126 05/24 01:42
86F:→ alvinlin : 模型(LLMs)在处理长上下文或多轮180.177.212.126 05/24 01:42
87F:→ alvinlin : 对话时的能力限制,以下帮助你理解180.177.212.126 05/24 01:42
88F:→ alvinlin : 两者的关系与差异。180.177.212.126 05/24 01:42
89F:→ alvinlin : 1. 两篇论文的主题与核心问题180.177.212.126 05/24 01:42
90F:→ alvinlin : Lost in the Middle (2024)180.177.212.126 05/24 01:42
91F:→ alvinlin : 主题:探讨LLMs在处理「长上下文」180.177.212.126 05/24 01:42
92F:→ alvinlin : 时,对於关键资讯在不同位置(开头180.177.212.126 05/24 01:42
93F:→ alvinlin : 、中间、结尾)的利用能力。180.177.212.126 05/24 01:42
94F:→ alvinlin : 核心问题:当关键资讯位於长上下文180.177.212.126 05/24 01:42
95F:→ alvinlin : 的中间时,模型的表现显着下降,呈180.177.212.126 05/24 01:42
96F:→ alvinlin : 现「U型曲线」(首尾好,中间差),180.177.212.126 05/24 01:42
97F:→ alvinlin : 即「中间迷失」现象。180.177.212.126 05/24 01:42
98F:→ alvinlin : 重点场景:多文件问答、key-value检180.177.212.126 05/24 01:42
99F:→ alvinlin : 索等需要在长文本中定位资讯的任务180.177.212.126 05/24 01:42
100F:→ alvinlin : 。180.177.212.126 05/24 01:42
101F:→ alvinlin : Lost in Conversation (2025)180.177.212.126 05/24 01:42
102F:→ alvinlin : 主题:探讨LLMs在「多轮对话」中,180.177.212.126 05/24 01:42
103F:→ alvinlin : 尤其是用户需求逐步揭露(underspec180.177.212.126 05/24 01:42
104F:→ alvinlin : ified, multi-turn)时的表现。180.177.212.126 05/24 01:42
105F:→ alvinlin : 核心问题:LLMs在多轮、需求逐步揭180.177.212.126 05/24 01:42
106F:→ alvinlin : 露的对话中,表现大幅下降,且 unre180.177.212.126 05/24 01:42
107F:→ alvinlin : liability(不稳定性)大幅增加,容180.177.212.126 05/24 01:42
108F:→ alvinlin : 易「迷失在对话中」。180.177.212.126 05/24 01:42
109F:→ alvinlin : 重点场景:模拟用户逐步补充需求的180.177.212.126 05/24 01:42
110F:→ alvinlin : 多轮对话,涵盖程式设计、数学、摘180.177.212.126 05/24 01:42
111F:→ alvinlin : 要等多种生成任务。180.177.212.126 05/24 01:42
112F:→ alvinlin : 2. 两者的关系与差异说明:180.177.212.126 05/24 01:42
113F:→ alvinlin : 两者都关注LLMs在「长期记忆」或「180.177.212.126 05/24 01:42
114F:→ alvinlin : 多步推理」场景下的能力瓶颈,在202180.177.212.126 05/24 01:42
115F:→ alvinlin : 4年论文聚焦於静态长文本的资讯定位180.177.212.126 05/24 01:42
116F:→ alvinlin : 与利用。在2025年论文聚焦於动态多180.177.212.126 05/24 01:42
117F:→ alvinlin : 轮对话中资讯逐步揭露与模型可靠性180.177.212.126 05/24 01:42
118F:→ alvinlin : 。180.177.212.126 05/24 01:42
119F:→ alvinlin : 两者的「迷失」现象有相似之处(即180.177.212.126 05/24 01:42
120F:→ alvinlin : 模型无法有效整合所有上下文资讯)180.177.212.126 05/24 01:42
121F:→ alvinlin : ,而具体场景、评估方法和解释略有180.177.212.126 05/24 01:42
122F:→ alvinlin : 不同。180.177.212.126 05/24 01:43
123F:→ alvinlin : 3. 2025年论文是否提出更多论点或解180.177.212.126 05/24 01:43
124F:→ alvinlin : 决方案?180.177.212.126 05/24 01:43
125F:→ alvinlin : 2025年论文的进一步贡献:180.177.212.126 05/24 01:43
126F:→ alvinlin : 更贴近实际应用场景:强调多轮、需180.177.212.126 05/24 01:43
127F:→ alvinlin : 求逐步揭露的对话,这是现实用户与A180.177.212.126 05/24 01:43
128F:→ alvinlin : I互动的常态。180.177.212.126 05/24 01:43
129F:→ alvinlin : 提出「可靠性 unreliability」新指180.177.212.126 05/24 01:43
130F:→ alvinlin : 标:不仅看平均表现,还关注模型在180.177.212.126 05/24 01:43
131F:→ alvinlin : 多次对话中的稳定性(同一需求多次180.177.212.126 05/24 01:43
132F:→ alvinlin : 对话结果差异大)。180.177.212.126 05/24 01:43
133F:→ alvinlin : 大规模实验:涵盖15个主流LLM、6大180.177.212.126 05/24 01:43
134F:→ alvinlin : 类生成任务,并提出「sharding」方180.177.212.126 05/24 01:43
135F:→ alvinlin : 法将单轮任务转为多轮对话。180.177.212.126 05/24 01:43
136F:→ alvinlin : 分析失败原因:如模型过早下结论、180.177.212.126 05/24 01:43
137F:→ alvinlin : 过度依赖前一轮错误答案、对中间回180.177.212.126 05/24 01:43
138F:→ alvinlin : 合资讯利用不足等。180.177.212.126 05/24 01:43
139F:→ alvinlin : 测试多种缓解策略:如在最後一轮总180.177.212.126 05/24 01:43
140F:→ alvinlin : 结所有需求(recap)、每轮重复所有180.177.212.126 05/24 01:43
141F:→ alvinlin : 已知需求(snowball),但发现这些180.177.212.126 05/24 01:43
142F:→ alvinlin : 方法只能部分缓解,无法彻底解决。180.177.212.126 05/24 01:43
143F:→ alvinlin : 总结:2025年论文虽不是简单重复202180.177.212.126 05/24 01:43
144F:→ alvinlin : 4年的发现,而是将「迷失」现象推广180.177.212.126 05/24 01:43
145F:→ alvinlin : 到更贴近真实用户互动的多轮对话场180.177.212.126 05/24 01:43
146F:→ alvinlin : 景,并提出了新的评估指标与分析框180.177.212.126 05/24 01:43
147F:→ alvinlin : 架,对LLM未来改进提出了更具体的挑180.177.212.126 05/24 01:43
148F:→ alvinlin : 战。180.177.212.126 05/24 01:43
149F:→ alvinlin : 4. 总结对比表180.177.212.126 05/24 01:43
150F:→ alvinlin : 概念延伸180.177.212.126 05/24 01:43
151F:→ alvinlin : LostInTheMiddle_2024180.177.212.126 05/24 01:43
152F:→ alvinlin : +主题: 长上下文资讯利用180.177.212.126 05/24 01:43
153F:→ alvinlin : +场景: 多文件QA, key-value检索180.177.212.126 05/24 01:43
154F:→ alvinlin : +贡献: 提出新评估协议180.177.212.126 05/24 01:43
155F:→ alvinlin : +现象: U型效应(首尾好,中间差)180.177.212.126 05/24 01:43
156F:→ alvinlin : LostInConversation_2025180.177.212.126 05/24 01:43
157F:→ alvinlin : +主题: 多轮对话下的可靠性180.177.212.126 05/24 01:43
158F:→ alvinlin : +现象: 多轮下表现大幅下降, 不稳定180.177.212.126 05/24 01:43
159F:→ alvinlin : 性增加180.177.212.126 05/24 01:43
160F:→ alvinlin : +场景: 需求逐步揭露的多轮生成180.177.212.126 05/24 01:43
161F:→ alvinlin : +贡献: 新指标(可靠性) : , 大规模180.177.212.126 05/24 01:43
162F:→ alvinlin : 多模型多任务实验, 失败原因分析,180.177.212.126 05/24 01:43
163F:→ alvinlin : 缓解策略测试180.177.212.126 05/24 01:43
164F:→ alvinlin : 5. 结论180.177.212.126 05/24 02:02
165F:→ alvinlin : 这两篇论文不是讲同一件事,但2025180.177.212.126 05/24 02:02
166F:→ alvinlin : 年论文在2024年「长上下文迷失」的180.177.212.126 05/24 02:02
167F:→ alvinlin : 基础上,将问题推广到「多轮对话」180.177.212.126 05/24 02:02
168F:→ alvinlin : 这一更贴近实际应用的场景,并提出180.177.212.126 05/24 02:02
169F:→ alvinlin : 了更多新的观察、指标和挑战。180.177.212.126 05/24 02:02
170F:→ alvinlin : 2025年论文提出了更多论点与分析,180.177.212.126 05/24 02:02
171F:→ alvinlin : 但目前尚未有彻底的解决方案,仅测180.177.212.126 05/24 02:02
172F:→ alvinlin : 试了一些缓解方法,效果有限。180.177.212.126 05/24 02:02
173F:→ alvinlin : 如果你关心LLM在真实对话应用中的可180.177.212.126 05/24 02:02
174F:→ alvinlin : 靠性,2025年论文的贡献更大、更具180.177.212.126 05/24 02:02
175F:→ alvinlin : 启发性。180.177.212.126 05/24 02:02
176F:→ alvinlin : 我指的是「新」闻。不是翻译。也不180.177.212.126 05/24 02:03
177F:→ alvinlin : 是早知道的东西。180.177.212.126 05/24 02:04
178F:推 pacino : 这篇真的赞。 36.230.30.221 05/24 09:02
179F:推 alex01 : 很像小朋友啊 223.136.175.36 05/24 14:57
180F:→ pc1234 : 外行人看热闹 内行人看门道 111.82.189.178 05/25 15:15
181F:→ vampirelin : 就懂点皮毛,然後一本正经的胡说八 101.10.236.56 05/26 03:06
182F:→ vampirelin : 道 101.10.236.56 05/26 03:06







like.gif 您可能会有兴趣的文章
icon.png[问题/行为] 猫晚上进房间会不会有憋尿问题
icon.pngRe: [闲聊] 选了错误的女孩成为魔法少女 XDDDDDDDDDD
icon.png[正妹] 瑞典 一张
icon.png[心得] EMS高领长版毛衣.墨小楼MC1002
icon.png[分享] 丹龙隔热纸GE55+33+22
icon.png[问题] 清洗洗衣机
icon.png[寻物] 窗台下的空间
icon.png[闲聊] 双极の女神1 木魔爵
icon.png[售车] 新竹 1997 march 1297cc 白色 四门
icon.png[讨论] 能从照片感受到摄影者心情吗
icon.png[狂贺] 贺贺贺贺 贺!岛村卯月!总选举NO.1
icon.png[难过] 羡慕白皮肤的女生
icon.png阅读文章
icon.png[黑特]
icon.png[问题] SBK S1安装於安全帽位置
icon.png[分享] 旧woo100绝版开箱!!
icon.pngRe: [无言] 关於小包卫生纸
icon.png[开箱] E5-2683V3 RX480Strix 快睿C1 简单测试
icon.png[心得] 苍の海贼龙 地狱 执行者16PT
icon.png[售车] 1999年Virage iO 1.8EXi
icon.png[心得] 挑战33 LV10 狮子座pt solo
icon.png[闲聊] 手把手教你不被桶之新手主购教学
icon.png[分享] Civic Type R 量产版官方照无预警流出
icon.png[售车] Golf 4 2.0 银色 自排
icon.png[出售] Graco提篮汽座(有底座)2000元诚可议
icon.png[问题] 请问补牙材质掉了还能再补吗?(台中半年内
icon.png[问题] 44th 单曲 生写竟然都给重复的啊啊!
icon.png[心得] 华南红卡/icash 核卡
icon.png[问题] 拔牙矫正这样正常吗
icon.png[赠送] 老莫高业 初业 102年版
icon.png[情报] 三大行动支付 本季掀战火
icon.png[宝宝] 博客来Amos水蜡笔5/1特价五折
icon.pngRe: [心得] 新鲜人一些面试分享
icon.png[心得] 苍の海贼龙 地狱 麒麟25PT
icon.pngRe: [闲聊] (君の名は。雷慎入) 君名二创漫画翻译
icon.pngRe: [闲聊] OGN中场影片:失踪人口局 (英文字幕)
icon.png[问题] 台湾大哥大4G讯号差
icon.png[出售] [全国]全新千寻侘草LED灯, 水草

请输入看板名称,例如:iOS站内搜寻

TOP