第20页

人工智能三大法则第一条:机器人不得危害人类。此外,不可因为疏忽危险的存在而使人类受害。第二条:机器人必须服从人类的命令,但命令违反第一条内容时,则不在此限。第三条:在不违反第一条和第二条的情况下,机器人必须保护自己。

看起来简单的法则,其实却是非常复杂又自带矛盾的逻辑体系,导致了许许多多难以取舍的逻辑难题。

就连简单的情况,都往往会让我们陷入两难的权衡——就比如说,像刚才那种人类之间相互打斗的情况,身在一旁的机器人,到底应该怎么做?

如果不作为、不保护主人,涉嫌违反第一条“不可因为疏忽危险的存在而使人类受害”。可万一拉架时不慎弄伤了其他人类,哪怕只是最细小的擦伤,也同样涉嫌违反第一条的“不得危害人类”。

于是,根本没有正确的选项。

在这类情况下,人工智能也就只有依靠自身固有的逻辑,自行权衡得出最“正确”的做法。没有所谓100的“正确”,而不同级别、型号的机器人面对同一的情况,做出的抉择也往往并不一致。

一般来说,越是高端的机体,越倾向于更为理智和自利的选择。

就像吊梢眼的那只genesis金发大天使,不管自己的主人被打还是打别人,反正是认定了主人没有性命之忧,全程只在旁边淡定的袖手旁观。

可像我这种的低智商的东西就……

以暴力手段压制人类,就算没有真的致伤,我也多半是不得好死的了。

如果这样想的话,有一句话叫什么来着——破罐子破摔?

反正都这样了。再凶一点反而更赚?

“疼!疼疼疼疼疼————”

吊梢眼的声音,已然变成了歇斯底里的惨嚎:“杀人啦!杀人了!这是怎么回事啊!呜……你、你的机器人太奇怪了!他疯了!程序错乱了!你快让他放手!快叫他放手啊!呜!他、他真的要杀人了!”