作者shamanlin (萨满已死有事烧纸)
看板Ghost-Shell
标题Re: 最近看完攻壳的一些感想(有捏)
时间Thu Jul 3 09:17:19 2008
※ 引述《rabbit66376 (逸苍云)》之铭言:
: 这个对於成长速度的假设没有保证
: 如果AI的成长并不是稳定的状态
: 你无法预期他们会不会突然出像顿悟般的错误或是意外
: 而这与思考的速度没有直接关系
那想必养成「人类」非常没有保障了
因为所有的人类也有机会发生顿悟般的错误
但实际上这些都有迹可寻
而不是在战场上如发疯般的顿悟
一个怕死的人,上战场前就可以知道他没种
: 那你可能需要祈祷每一次都是在整备时才发生
: 我相信有更好做法
: 而这个做法目前市面上都在用
同上
学到了新的东西,可能有新的顿悟
在战斗中产生极为影响战况的顿悟?
一个人不会突然从超勇猛变得怕死
一台机器也不会
另外市面上好像没有可学习的智能AI这种东西
(现在是2008年)
死的东西当然是一个版本一个版本的出
: 问题是[无法预期]
: 你无法预期突然产生的是什麽东西
: 也许是一个问题解决方式,也有可能是错误的反应行动
一句「无法预期」就想打死所有的可自由思考AI
那根本就只能用马尾型嘛
但这种AI永远只会是就是一个口令一个动作
没事先输入进去的,不会就是不会
: 都不是马尾办不到的
: 马尾或许无法回答哲学性的问题
: 但是入侵的标准程序、瞄准系统、调阅资料它们都可以做到(当然要硬体配合)
: 而在实际的工作分配上[想办法]一直是素子些活人的工作
: 分担执行面才是AI的工作
只要AI的思考能力越灵活,能分担的层级也就越高
一个叫他干嘛,他就会自动想办法完成指令的AI
(去救巴特)
跟一个必须下好完整一系列指令才能完成的AI
(从马路用物理方式移动,选取最快路径,碰到敌人执行标准战斗程序)
後者实在太麻烦了
更甚,要是九课人员身处无法下达指令的状态
(濒死,或是昏迷等等情况)
哪种AI比较有机会保护人员安全?
: 而即便塔其克马很神奇的作出了卫星击核弹的举动
: 这也只是刚好而已...
错很大
马尾办不办得到跟哲学性与否一点关系都没有
这个事件代表的是马尾型只能执行资料库内有的
当初设计的时候就已输入进去的东西
他们并没有自己思考的能力
所以碰到塔奇克马问他的问题,资料库内也没有
才会进入当机状态
反过来,要是当初设计马尾的人把这问题解答放进去
那马尾反而会滔滔大论开始讲述
「标准程序」「瞄准系统」「调阅资料」都可以事先输入进去的
但就是一个指令一个动作,只能去下指令执行某种动作
然而设计人员有可能预先想好战场上所有可能的变化吗?
当然不可能,他们又没有预知能力
难不成设计人员会在水晶球看到...
「之後会要侵入潜舰,去查水手的私人网路喔」
「当听到把难民记忆上传时,要去入侵卫星喔」
只能叫马尾从某条线路去执行标准化的入侵动作
而无法叫马尾「自己想」各种侵入潜艇的方法
即便马尾的AI强到可以丢一句「去侵入」
就自动去执行各种侵入方法
那也只能说当初的设计者太厉害
事先写好碰到这种情况该执行的程序
是啊
塔奇克马用卫星攻击核弹的举动只是刚好
但马尾型要「刚好」的可能性连0.000001%都没有
面临没有预设过的事情却还能应对的
只有塔奇克马,而不是马尾
: 你无法保证他们每一次的变化都是你所期望的方向
: 有更多可能是突然的自我行动
: 同样是[救巴特]这个指令
: 如果他们会先斩後奏
: 成功了,代表他们的判断几乎足以取代命令者
: 失败了,你就少一个叫做巴特的优秀成员
: 而事实上
: 他们很有可能在你没有下达指令时作出行动
: 等你知道时已经来不及了
: (卫星事件就是一个例子)
当你一直执着在AI可能突然自我行动的时候
麻烦你先想想,人类也是同样情况的东西
可思考型的AI有违背命令的可能
这件事情研究人员跟素子一直都有在评估
这也是第一部後期攻壳车被踢回lab的原因
(为什麽同样的话要一讲再讲)
在倒数第二集,攻壳车们也做出违背命令的举动
那为什麽素子还是让攻壳车回来了?
理由很简单
虽然塔奇克马有可能违背命令
但他们违背命令的目的是好的
违背命令一定是错的吗?
我想不是吧
如果巴特在第一部最後面,因为素子挂了太伤心
叫攻壳车乱枪把他打死,一起上路
这时候违背命令是对的还错的?
AI有思考能力,有可能违背命令
(前提是朝好的方向)
所以塔奇克马不只是工具,而变成夥伴
这是马尾永远都不可能达成的境界
这点在GIG的开头跟结尾都有特别提到
我也不想再说一次了
当然你会说,要是AI违背命令往坏的方面去发展呢?
那塔奇克马就会被踢回lab,而不是持续服役
(奇怪勒,这讲几次了)
就像军队中出现违抗命令的顽劣分子
同样也会被踢出去一样
: 要成长很简单
: 你把服役中的塔其克马1.0经验回传给伺服器
: 让他们重新整合一次作出新的塔其克马2.0
: 然後进行测试和校正
: 确认稳定後再将新版本的2.0推出或是作成更新挡
: 现在,你的塔其克马成长了
: 而且没有突发的问题
: 当然如果你有兴趣跟塔其克马聊哲学问题
: 你可以下载[塔其克马嘎哩共]1.0的聊天介面
喔
你可以把剧中出现的塔奇克马们当作1.0
然後他们随时把资料传回lab去研发2.0
到了第三部,塔奇克马成长了耶!
--
结果还不是要把塔奇克马丢到前线去学经验
--
不屈者难渡人世 给正直者以安眠
--
※ 发信站: 批踢踢实业坊(ptt.cc)
◆ From: 220.133.186.120
※ 编辑: shamanlin 来自: 220.133.186.120 (07/03 09:58)
1F:→ rexrainbow:用过"自然输入法"吗? 它有符合你的"可学习"的定义吗? 07/03 11:11
2F:→ rexrainbow:用不同的度量(定义)得到不同的数值(结果), 然後再讨论 07/03 11:27
3F:→ rexrainbow:结果, 似乎很难得到个答案(共识) 07/03 11:27
4F:→ shamanlin:不符合,因为自然输入法的选字索检方式是早写好摆在那 07/03 14:01
5F:→ shamanlin:等着使用者把资料输入进去而已,跟智能AI差很多 07/03 14:02
6F:→ rexrainbow:字词预测是已经写好的资料表没错, 但是自然输入法还会 07/03 14:59
7F:→ rexrainbow:"改变"字词预测的结果, 以使用者常用的辞作为优先猜测 07/03 15:01
8F:→ rexrainbow:对象. 所以它能替不同的使用者提供不同的字词猜测 07/03 15:02
9F:→ rexrainbow:说穿了也不过是纪录使用者习惯, 并以作出更符合使用者 07/03 15:15
10F:→ rexrainbow:需求的行为 07/03 15:16
11F:→ shamanlin:这依然是输入资料啊,哪种辞常用就call哪种,输入前输入 07/04 06:55
12F:→ shamanlin:後,设计者完全可以预料到程式会怎麽跑,因为一切都是照 07/04 06:56
13F:→ shamanlin:原本的设计在走,只是输入的资料不同,对应的反应不同 07/04 06:56
14F:→ rexrainbow:起初资料库都相同, 使用过後才产生的资料库是原先所没 07/04 09:56
15F:→ rexrainbow:有的 07/04 09:56
16F:→ rexrainbow:如果你只认可能"修改程式码"的才算"可学习", 但修改程 07/04 10:02
17F:→ rexrainbow:式码的规则也是设计者设计的, 同样也是"只是输入的资 07/04 10:03
18F:→ rexrainbow:料不同,对应的反应不同" 07/04 10:03
19F:→ rexrainbow:"市面上好像没有可学习的智能AI这种东西", 你指得应 07/04 10:04
20F:→ rexrainbow:该是AI设计的出发点不同, 所谓的"强AI",或是"弱AI" 07/04 10:05