正文

问题8 你是否是一个伪君子(2)

智能简史:谁会替代人类成为主导物 作者:(美)雨果·德·加里斯


  但是你可能会说,敲响警钟只能加速人类之间(宇宙主义者和地球主义者)的人工智能战争。这样的人类战争对人类的危害不比高级人工智能差。如果人类在本世纪使用先进的武器进行一场残酷的战争,结果将是大规模的死亡。

  正确,但是不能肯定这一定会发生。我认为,人类在人类战争中存活下去的可能性比人工智能机器决定完全毁灭人类的机会大。由于智慧水平,人工智能机器们会发现这样的任务(毁灭人类)是如此的简单。

  对于这些部分,你可能感觉有些犹疑,甚至是不舒服。我承认,我也感觉不舒服。我一部分是宇宙主义者,宇宙主义是我的梦想,它是我为之献身的事业;而另一部分我是地球主义者,我并不想人类大规模死亡,我告诉自己,如果所有的大脑制造者都停止工作,将不会有人工智能带来的任何问题。我想,我可能是地球上第一个这样的大脑制造者,那就是和制造原子弹(铀弹或氢弹)的核物理学家一样感受到了某种道德上的困惑。然而,他们中大多数是在核弹被投放之后感到了疑虑,而不是之前。

  首先,我认为大脑制造研究不会停止。正如我在第6章解释的一样,这章主要介绍了人工智能战争是怎样开始的,我所看到的唯一能够让大脑制造停止的方法就是地球主义者的呐喊成为普遍现象并且在政治上非常有力。它必须足够强大,以便可以形成一个能够搜寻那些可疑的宇宙主义研究者的私人住宅的集权国家,并且更主要的是,能够胜过那些支持继续人工智能研究的经济和政治力量。

  我认为,最折磨我的道德问题是:“如果推动人工智能研究最终带来几十亿人死亡将怎么办?如果你肯定这将是所需的代价你还会继续吗?”在我写本书的时候,我正在思考这个问题,而且我的思想可能会随着我的变老而改变,我的回答将会是这样的:“如果我能够肯定这点,虽然这些还是猜想,那么我将需要更深程度地反省自己,来看看我坚持宇宙主义者的梦想到底有多大的程度。一方面,我可能会认为宇宙对于人类的命运漠不关心—— 仅仅是处在一个微不足道的宇宙中一个微小的星系中的一个微小的恒星星系中的一颗微小的星球上的一种微小的生物,如果正如理论家们指出的一样有万亿个宇宙的话。我的无情的宇宙主义一面会这样思考问题,所以我会选择继续支持制造人工智能机器。

  但是另一方面,我也是一个人,由于宇宙主义梦想而导致几十亿人死亡的结果是我完全排斥的。我认为,我将不得不学会习惯这样可怕的道德困境。人类也需要这样。我只是第一批意识到这点的人。想象一下我的工作的远期后果,它将迫使我这样想问题。


上一章目录下一章

Copyright © 读书网 www.dushu.com 2005-2020, All Rights Reserved.
鄂ICP备15019699号 鄂公网安备 42010302001612号