第七零六章 就用“无题”吧

其实卡里克那丫研究的方向是性【3】爱智能机器人,因为那需要和人类做最亲密的接触的。所以那种智能程度要求更高。

但是林克觉得那样的智能完全可以衍生出其它类型的机器人系统。

“同时,这种机器人是属于限定工作机器人。它们的智能依然不能自主学习,只能依靠人类输入的编码指令完成他们的工作。我们可以针对某个工种不断完善它们的程序库,但不接受超过这个工作范围的指令。以此限制有人会利用机器人危害人类社会。”

林克的提出这个对智能限制的提法,也提到了一个智能机器人可能会成为某些人对人类社会进行破坏的工具。

“比如说,如果恐怖分子有可能劫持机器人,并对它们程序进行修改。让机器人进行恐怖行动。所以这些东西,我们必须要对智能的行动进行限制。”

林克对这个问题提出了自己的设想:“这就是我刚才提到的,智能机器人拥有两个电脑的原因。这两个电脑必须相辅相成,一一配对,缺少其中一个,智能机器人就会停止工作。

其中一个电脑内的程序,必须严格限定。不允许任何方式对里面的程序进行人为读写。连智能本身也不允许进行那样的操作。

比如在这个电脑内部设置一个程序,资料一旦出现任何修改,就自动死机。而这个电脑中,存储各国的法律条文,机器人任何行动,都会首先过滤相对应的法律。一旦智能行为与法律冲突,另外一个电脑的指令会被该电脑强行制止。”

他提出来的方案听着可行,但与会的人都觉得在技术上的难度不小。林克既然提出这个设想,在软件应该已经有眉目了。

但是硬件呢?

怎么不保证控制智能行为规范的电脑不会被拆借修改?那怎么都需要飞机黑匣子一样难以破坏的东西。那样的东西先不说成本,就说机器人怎么容纳那样的东西。

对此林克提出一个想法:“使用一个气压感应器。将装载那个电脑的外壳抽成真空,只要有空气进入,则自动出发电脑自毁程序。电脑的冷却方面,我想在技术上不是问题。”

他提出来的设想,在技术上的难度不小。但也引起了关注。特别是如何控制智能只为人类服务而不会破坏人类社会这方面。他提出来的设想,大概是可行的。

哪怕智能自毁也不让它有机会被人利用于危害社会。那虽然很极端,但确实是一个不错的方向。

而人类发展智能最大的困扰就是这一点,担心智能无法限制,最终会危害到人类本身。

当然,林克提出来的智能专业化,却不被认为是符合人类社会所需要的。

一个高级智能的生产成本肯定很高。如果智能只做某方面的事,在市场推广方面肯定是非常不利的。

林克也只是在这个讨论为主的论坛上阐述自己的见解。而且论坛,自然是各抒己见。

不过,这个论坛也是有记者采访的。林克的见解不管是否正确,以他的身份都不会被忽视。