作者raincole (冷雨)
看板SF
标题Re: [心得] 三体 有雷
时间Sat Feb 12 12:15:53 2011
: 推 fw190a:好奇,可以请楼上说明一下感到不合理的原因吗?
讲几个例子...
1.这些名词(人类、伤害)的定义是人订的,还是机器人推算出来的?
在基地某篇里面,有人把机器人的「人类」定义成只限自己星球上的人,所以这些定义应
该是人为的。
但是这又不符合可避免的冲突、骗子里面机器人能自行推算出超出设计者想像的想法。
而且机器人把心理上的伤害也当作伤害,但连人类自己都没办法确切了解自己心理上有没
有被伤害,又如何能对机器人作定义?
2.机器人的运算能力是否有硬体上的极限?
如果没有,那所有机器人的第一法则,应该都会变成第零法则,因为他们每作一个动作,
都可以预期(无限远的)的蝴蝶效应对人类的伤害。
如果有,那曙光中的吉斯卡为甚麽可以只靠调整程式,就得到远远超过丹尼尔的能力?
3.三原则安全吗?
从消失无踪里面看来,机器人的第一法则也是可以被人为修改的。
而从基地看来,机器人对人类的定义也是可修改的。
那这些机器人学家以及机器人制造公司,应该比世界上任何一间军火商或恐怖份子更危险
,因为这些机器人随时可以变成强大的武力(只要改动前述两项之一)。
但是里面的政府却无所管制,只把机器人学当成普通的学术活动看待,这也太不符合我们
对政府(美国?)的印象了。
我知道这是因为艾氏的作品很多,如果只看三原则本身,也许不能说「不合理」。
但是这三原则其实并没有解决任何事情,因为实作上有很多必然的矛盾,事实上艾氏
的机器人系列就是在描写这些矛盾。
简单来讲,机器人三原则和以下的三原则其实差异不大:
1.要做人们心目中的好机器人。
2.要做人们心目中的好机器人。
3.无论如何,都要做人们心目中的好机器人。
只要交给机器人超强的推理和判断能力,判断出什麽是好机器人就行了。
但是就科幻小说来看,我并不觉得这些算是什麽问题。
正如某个版本的导读所讲,科幻小说本来就是幻想重於科学,否则就不是小说了。
※ 编辑: raincole 来自: 113.61.193.250 (02/12 12:20)