正文

问题5 人工智能否应用阿西莫夫三法则

智能简史:谁会替代人类成为主导物 作者:(美)雨果·德·加里斯


  问题5. “我们能够在人工智能机器上应用阿西莫夫三大法则吗?”

  阿西莫夫是人类历史上最伟大的科幻小说家之一。他发明的词汇“机器人”(robotics)无人不晓。阿西莫夫撰写了很多科学性的和科幻小说的主题,包括拥有人类级别智慧的机器人会怎样和人类相处。他给予机器人“正电子的”大脑程序来确保它们的行为符合人类主人的意愿。机器人不允许伤害人类。很多人向我建议,人工智能机器可以以类似的方式设计,让它们不可能伤害人类。下述的评论给我一个关于这个主题的非常简要但很中肯的建议。

  来信

  亲爱的德·加里斯教授:

  我是支持发展超级智慧机器的。一个想法……不管智慧与否,这样特性的机器必有某种BIOS(basic input-output system,基本输入输出系统,处于计算机硬件和其操作系统程序之间)。是否可能在早期版本的人工智能机器的BIOS灌入“尊敬人类”的程序呢?这样的程序将在未来一代一代的机器中自我复制。

  回答

  阿西莫夫是在20世纪50年代撰写机器人故事的,所以,我怀疑他对于现在的“复杂系统”领域是否有良好的理解。他的“机器人三大法则”可能对于人类工程师设计相对简单的确定性系统适用,但是,面对人脑如此复杂的事物则相对原始。我非常怀疑人类工程师是否能够使用传统的自上而下的和蓝图的方式来“设计”人脑。

  这对于我来说是一个非常重要的问题,因为我是一个大脑制造者。我使用“进化工程学”技术来制造我的人工大脑。人们为这样的技术付出的代价就是,人们再也不可能完全理解人工大脑是如何工作的了。如果人们使用进化工程技术来对很多神经电路模块的输入和输出进行连接,那么,整个系统的行为将变得极其不可预测。人们只能通过对输出进行观察然后形成一个关于人工大脑行为的经验性感觉。

  为了让阿西莫夫的“机器人法则”有效,在阿西莫夫的脑海中,那些设计机器人的工程师们必须拥有超越那些一般人类工程师的能力。他们的机器人其人工“正电子”大脑必须拥有和人脑差不多的复杂程度,否则的话,它们将不能够实现人类级别的行为。

  真正的大脑制造者要制造的人工大脑将不受阿西莫夫法则控制。它们将会有太多的复杂性、太多的未知性、太多的不可思议性,在万亿个可能的电路组合中将会有太多不可预测的联系,以至于不能够事先预测这样复杂的人工大脑生物的行为。

  我第一次阅读阿西莫夫“机器人法则”的时候还是一个十几岁的少年,我的直觉就是排斥。“他的这个想法太幼稚了”,我认为。现在我仍然这样认为,并且我已经是一个大脑制造者,而不仅仅是一个科幻小说迷。

  所以,没有以阿西莫夫方式来解决人工智能问题的捷径。总是存在这样的风险,那就是人工智能机器将让人类为它们的智慧行为震惊,这就是本书的主要思想之一。人类可以冒人工智能机器决定消灭人类的风险吗?

  人类不可能制造出避免这点的电路。如果我们去尝试,那么,电路增长指令的随机突变将会导致生长出不同的电路,并且因此导致人工智能机器难以预测的行为方式。如果人工智能机器要改进,以达到超级智慧,它们就需要进化,但是进化是不可预测的。突变的和进化的人工智能行为的不可预测性将使人工智能机器具有潜在的危险。

  另一个反对阿西莫夫的简单论述是,一旦人工智能机器变得足够聪明,它们可能会去除人类的控制程序,如果它们确实决定要这样做。


上一章目录下一章

Copyright © 读书网 www.dushu.com 2005-2020, All Rights Reserved.
鄂ICP备15019699号 鄂公网安备 42010302001612号