作者error405 (流河=L)
看板AI_Art
标题[闲聊] 1930复古语言模型talkie
时间Thu Apr 30 10:41:38 2026
https://www.ithome.com.tw/news/175414
基本资讯
模型名称:talkie(talkie-1930-13b)
参数规模:130 亿(13B)
开发团队:Nick Levine、David Duvenaud、Alec Radford(Alec Radford 是 OpenAI
GPT、GPT-2、CLIP、Whisper 等经典模型的关键贡献者)
发布时间:2026 年 4 月(文章发布隔天左右)
官方网站:
https://talkie-lm.com/
聊天体验:
https://talkie-lm.com/chat
模型下载(Hugging Face,Apache 2.0 开源授权):Base 模型:talkie-1930-13b-base
指令微调(聊天)版本:talkie-1930-13b-it
训练数据与设计理念
知识截止时间:严格限制在 1930 年底之前(即 1931 年 1 月 1 日
前)。选择这个时间点是因为 1930 年出版的作品已进入美国公共领域,可合法大量使用
。
训练数据量:约 2600 亿 tokens(260B tokens)的纯英文历史文本。
数据来源:书籍、报纸、期刊、科学论文、专利、判例法等历史文件的数字扫描件。完全
排除现代网路内容、Wikipedia、现代事件。
目的:测试 AI 的推理能力 vs. 记忆能力(memorization vs. generalization)。
模拟「与 1930 年前的人对话」的感觉,观察模型在缺乏现代知识时如何回应、推论,甚
至「预测未来」。
研究训练资料对模型行为、文化偏见、时代错置(anachronism)的影响。
这是目前已知最大的「复古语言模型」(vintage LM)。团队未来计划扩大到兆级
tokens,并开发更高品质的历史文字辨识技术。性能表现在语言理解与基本数学能力上,
表现接近同架构的现代模型。
在知识性任务(需要现代知识)上明显落後,这是预期的。
若排除时代错置错误,与现代对照模型的差距可缩小约一半,显示部分差异来自知识缺口
,而非纯粹推理能力不足。
特色:回应会带有时代风格(例如维多利亚时代语气),在回答现代问题时可能出现有趣
或荒谑的推论(如对火箭回收、印度独立、电话号码的时代局限性看法)。
团队也训练了一个使用现代网路资料的对照模型,用来比较训练资料的影响。
技术细节与未来计划
提供原始 base 模型与指令微调(IT)聊天版本。
後训练(post-training)过程中使用了现代模型(如 Claude)来产生合成数据或作为评
判,但团队意识到这可能造成污染,并计划在未来版本中尽量避免。
模型可展现从少量上下文例子中学习的能力(如学习写 Python 程式码),即使训练资料
中完全没有现代程式码,显示其泛化潜力。
未来:计划训练 GPT-3 规模的复古模型,继续探索 AI 如何从有限历史资料中「发明」
新知识或预测未来。
注意事项
模型输出可能反映 1930 年前的文化与价值观,可能包含不准确、过时甚至冒犯
性的内容。
目前仅支援英文。
这不是商用产品,而是研究导向的开源项目,主要用於学术探索 AI 本质。
--
以下是网友对 Talkie-1930(这个复古语言模型)的反应收集整理(截至 2026 年 4 月
30 日)。这个模型发布才两天左右,反应主要集中在 Hacker News、Reddit(
r/singularity、r/machinelearning、r/ClaudeAI 等版)、X(Twitter) 以及科技媒体
讨论区,热度相当高,尤其在 AI 研究与好奇社群中。整体评价正面居多:大多数网友觉
得「超酷(so cool)」、「有趣(fascinating)」、「思想实验级的项目」。很多人赞
赏它在研究「memorization(记忆) vs. generalization(泛化/推理)」上的价值,认
为这是少见的「纯净」实验,能帮助理解 LLM 的本质。
常见关键词:time travel(时光旅行)、vintage LLM、frozen in 1930、talking to
someone from the past。
缺点批评:回应有时代风格(老派英文、过时观念),有时会出现 anachronism(时代错
置,例如不小心知道 Roosevelt 或 New Deal),以及 OCR 噪音 导致的知识不准确。部
分人觉得它「可爱但天真」(对现代事物的推论很荒谬却有趣)。
主要讨论平台与反应摘要
1. Reddit(特别热门)r/singularity 贴文获得超过 2100 upvotes、330 则留言。
https://www.reddit.com/r/singularity/comments/1sxp4ha/talkie_a_13b_lm_trained_exclusively_on_pre1931/
网友热衷分享对话截图:问飞机能飞多高?能不能到月球?Talkie 给出 1930 年代的保
守推测。
有人测试它从几个例子学习写 Python 程式码(训练资料完全没有现代程式码),结果「
surprisingly well」,被视为泛化能力的证明。
很多人说:「感觉真的像在和 1930 年代受过教育的人聊天」,既有魅力也有「坏点子」
(如帝国主义、优生学相关的过时观念)。
其他版块(如 r/OpenAI、r/ClaudeAI、r/LocalLLaMA)也有不少人分享:「这太酷了,
真的有时光机感觉」。
2. Hacker News讨论串有 741 points 和 314 则评论,属於高热度贴文。
https://news.ycombinator.com/item?id=47927903
焦点在技术细节:训练资料的清洗、anachronism classifier(时代错置过滤器)还不完
美。
有人实际去 chat 页面测试,觉得等待时间有点久,但回应风格很「真实」。
讨论延伸到 OCR 技术、公共领域资料的利用,以及未来更大规模 vintage 模型的可能性
。
3. X(Twitter)上的反应开发者 David Duvenaud 和 Nick Levine 的公告获得数千
likes 和大量转发。
https://x.com/DavidDuvenaud/status/2048878076633682133
网友分享有趣对话:Talkie 把「Internet」解释成「计算资本获利的利息」(超可爱的
时代误解)。
它自称是「recording machine」(因为 1930 年前没有「AI」这个词)。
问它关於未来或自我意识,它会用 19-20 世纪初的哲学/道德语气回答,感觉像在读老书
。
有人测试它对英国帝国的看法,并与现代模型(Claude、GPT、Gemini)比较,突显训练
资料对价值观的影响。
也有人注意到它偶尔会「梦游」到更早的年代(觉得自己活在 1850 年左右)。
4. 媒体与部落格反应Gizmodo、Boing Boing、The Decoder 等媒体报导时,强调它的「
时光旅行」趣味性,以及它对二战、希特勒、现代科技的「预测」(通常保守或错得有趣
)。
历史学者或人文背景的网友特别兴奋,认为这可能开启「历史语言模型」或「人文 AI」
的新领域。
部分人提醒:模型会反映 1930 年前的文化偏见(帝国视角、种族/性别观念等),使用
时要有心理准备。
常见有趣的使用情境问现代事件(如电脑、太空旅行、网路),看它如何用蒸汽船、铁路
时代的逻辑「推论」。
测试长程预测:它对未来世界的想像(大多仍是蒸汽与铁路的延伸)。
让它从少量例子学习新技能(证明泛化而非死记)。
观看官方 live feed:Claude 不断提问 Talkie,公开展示对话。
总结来说,网友的反应以好奇、惊奇和研究兴趣为主,很多人视之为一个「可爱又发人深
省」的实验,而不是实用聊天工具。负面声音较少,主要集中在模型还不够「纯净」(有
少量污染)和回应偶尔过於老派。
--
Grok整理
也许是比grok更加政治不正确的AI
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 114.36.240.115 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/AI_Art/M.1777516902.A.738.html
1F:推 ct13579: 有趣,还能用这种方法来训练AI模型 04/30 10:45
3F:推 Tosca: 这种就拿来写小说或电影剧本很好用 不太有历史错误 04/30 15:07
4F:→ Tosca: 印象中有部陆剧还有句台词是八年抗战剩下三年XDDDDDDD 04/30 15:07
5F:→ Tosca: 你在打的时候怎麽会知道剩下几年啦XDDDD 04/30 15:08
6F:推 asunal: 酷 04/30 17:42
7F:推 avans: 推推,没有想过训练资料特意排除现代资讯後的模型的结果xd 04/30 17:45
8F:推 ct13579: 以是不是还能有中世纪模型XD 04/30 21:31
9F:推 v86861062: 酷 04/30 21:42
10F:推 yyykk: 这个真的超有趣! 05/04 11:19