作者rabbit66376 (逸苍云)
看板Ghost-Shell
标题Re: 最近看完攻壳的一些感想(有捏)
时间Fri Jul 4 20:26:25 2008
※ 引述《shamanlin (萨满已死有事烧纸)》之铭言:
:
: 那想必养成「人类」非常没有保障了
: 因为所有的人类也有机会发生顿悟般的错误
: 但实际上这些都有迹可寻
: 而不是在战场上如发疯般的顿悟
: 一个怕死的人,上战场前就可以知道他没种
: 同上
: 学到了新的东西,可能有新的顿悟
: 在战斗中产生极为影响战况的顿悟?
: 一个人不会突然从超勇猛变得怕死
: 一台机器也不会
: 另外市面上好像没有可学习的智能AI这种东西
: (现在是2008年)
: 死的东西当然是一个版本一个版本的出
这就是人类设计精良的地方之一
不管你的AI会不会思考
都是一个基於计算产生的系统
只要计算的过程出现错误
就会产生与原来相差甚远的结果
一个简单的算式 i = i + 1
if i = 100 then i = i % 100
j = j - i
...
只要其中一个算式是可能不执行的
你就会得到完全不同的结果
所以,也许一个人不会从超勇猛变的超怕死
但是,一个机器人可能会从超勇猛
变的勇於避开战斗、勇於近乎自杀的冲向火线
勇於抗命、勇於在战场上做个人的战术实验...etc
在稳定状态下,会不会发生都是可预期的
但在AI不稳定的情况下
[随时]都有可能出现某条指令失效的情况
: 一句「无法预期」就想打死所有的可自由思考AI
: 那根本就只能用马尾型嘛
: 但这种AI永远只会是就是一个口令一个动作
: 没事先输入进去的,不会就是不会
事实上,素子的世界观中也只敢用类似马尾型的
而你需要的功能的确可以事先输入
没理由每买一台机器人你还要重新作新兵训练...
: 只要AI的思考能力越灵活,能分担的层级也就越高
: 一个叫他干嘛,他就会自动想办法完成指令的AI
: (去救巴特)
: 跟一个必须下好完整一系列指令才能完成的AI
: (从马路用物理方式移动,选取最快路径,碰到敌人执行标准战斗程序)
: 後者实在太麻烦了
这点就是你的误解了
马尾或许无法作出[应该去地点A]的决定
但你一但告诉他[应该去地点A],他就会去执行
甚下的可以交给导航程式、跟应敌标准程序、最短路径演算法
并不需要你一个一个输入...
至於你是怎麽样得出[应该去地点A]的结论
那只有你最清楚
: 更甚,要是九课人员身处无法下达指令的状态
: (濒死,或是昏迷等等情况)
: 哪种AI比较有机会保护人员安全?
如果你期望AI在你昏迷後可以替你弥补你决策上的失误
那你一定是准备回家吃自己了
因为这个单位恐怕养AI比养你还便宜...
: 错很大
: 马尾办不办得到跟哲学性与否一点关系都没有
: 这个事件代表的是马尾型只能执行资料库内有的
: 当初设计的时候就已输入进去的东西
: 他们并没有自己思考的能力
: 所以碰到塔奇克马问他的问题,资料库内也没有
: 才会进入当机状态
是的,那麽你期望一个你定义为可以思考的AI替你做出什麽事?
: 反过来,要是当初设计马尾的人把这问题解答放进去
: 那马尾反而会滔滔大论开始讲述
: 「标准程序」「瞄准系统」「调阅资料」都可以事先输入进去的
: 但就是一个指令一个动作,只能去下指令执行某种动作
: 然而设计人员有可能预先想好战场上所有可能的变化吗?
: 当然不可能,他们又没有预知能力
所以素子这些活人才会存在
不然他们早就没工作了...
: 难不成设计人员会在水晶球看到...
: 「之後会要侵入潜舰,去查水手的私人网路喔」
: 「当听到把难民记忆上传时,要去入侵卫星喔」
: 只能叫马尾从某条线路去执行标准化的入侵动作
: 而无法叫马尾「自己想」各种侵入潜艇的方法
: 即便马尾的AI强到可以丢一句「去侵入」
你可以叫马尾去进行A目标的入侵
但除此之外
你有什麽理由要叫马尾自己想?
这是你的工作,也是为什麽你可以领薪水的原因
: 就自动去执行各种侵入方法
: 那也只能说当初的设计者太厉害
: 事先写好碰到这种情况该执行的程序
这样的基本设计一点都不利害
遇到A就执行a
遇到B就跳开b
这种单纯的判断式目前很多程式都有
你知道为什麽每次素子都会请马尾或是攻壳车支援侵入?
因为攻壳车或是马尾都可以作为跳板
一但过於深入被反击的时候,烧掉的不会是素子的脑
: 是啊
: 塔奇克马用卫星攻击核弹的举动只是刚好
: 但马尾型要「刚好」的可能性连0.000001%都没有
: 面临没有预设过的事情却还能应对的
: 只有塔奇克马,而不是马尾
你祈求这样0.000001%的可能性
是建立在 99.999999%的风险上
well...主角的运比较好吧
我不会预期自己有这麽好的运气
: 当你一直执着在AI可能突然自我行动的时候
: 麻烦你先想想,人类也是同样情况的东西
: 可思考型的AI有违背命令的可能
: 这件事情研究人员跟素子一直都有在评估
: 这也是第一部後期攻壳车被踢回lab的原因
: (为什麽同样的话要一讲再讲)
: 在倒数第二集,攻壳车们也做出违背命令的举动
: 那为什麽素子还是让攻壳车回来了?
: 理由很简单
: 虽然塔奇克马有可能违背命令
: 但他们违背命令的目的是好的
: 违背命令一定是错的吗?
: 我想不是吧
: 如果巴特在第一部最後面,因为素子挂了太伤心
: 叫攻壳车乱枪把他打死,一起上路
: 这时候违背命令是对的还错的?
: AI有思考能力,有可能违背命令
: (前提是朝好的方向)
: 所以塔奇克马不只是工具,而变成夥伴
: 这是马尾永远都不可能达成的境界
: 这点在GIG的开头跟结尾都有特别提到
: 我也不想再说一次了
: 当然你会说,要是AI违背命令往坏的方面去发展呢?
: 那塔奇克马就会被踢回lab,而不是持续服役
: (奇怪勒,这讲几次了)
: 就像军队中出现违抗命令的顽劣分子
: 同样也会被踢出去一样
那是因为你预期了这些抗命应该是[好]的 XD (这真的是太浪漫了)
你一直用[人]作类比
完完全全的忽略了世界上的[人]都不是全然[好]的
也许你担心死亡、也许你担心没有钱或刑期,所以你遵守法律
但塔其克马担心什麽?
机器并没有死亡的概念
时间或是金钱对他们而言没有意义
即便拥有相同的智能
AI在思考基础上就与人不同
更不用说他们思考的运作方式也是不同的
所以我不确定你为什麽可以简单的用人将塔其克马作类比
或是你觉得世界上的人都是照着预期的方向前进的?
不过我知道你这样认定的关键在哪里
你一直都认为
AI像人一样是可以透过观察来得知适任与否
并且观察的频率也与人相同不会出现突发状况
然而,只要发生一次溢位
就可以把原本算出来是最大值的数字归零
一个算式的没有预期的执行
得到的结果就是差十万八千里
真的要我作类比的话
一条钢筋平常你看不出在承重上有什麽异状
但是要崩弯断裂只需要一秒不到...
(所以设备必须要定期更换避免老化)
: 喔
: 你可以把剧中出现的塔奇克马们当作1.0
: 然後他们随时把资料传回lab去研发2.0
: 到了第三部,塔奇克马成长了耶!
如果只要[当成]就会具有功能的话...
--
※ 发信站: 批踢踢实业坊(ptt.cc)
◆ From: 123.194.129.236
※ 编辑: rabbit66376 来自: 123.194.129.236 (07/04 22:12)
1F:→ rexrainbow:技术层面而言, rabbit的立论比shamanlin接近真实 07/05 15:18