对许多人来说颇为困难的选言判断逻辑推理却正是计算机所擅长的,计算机树状搜索和路径查找的运算法则都非常有效。好的软件尽量地利用这类算法,因此,软件开发人员需要对这种类型的逻辑推理了然于心。
为什么机器人很容易被杀死
你可能在电视上看过机器人大战。人们制造机器人的目的就是为了打败另外的机器人,把许多不同的机器人放到竞技台上,然后观察所发生的情况。这些比赛至少证明了一点:机器人很容易被杀死。
机器人容易被杀死,是因为它们的思维“横冲直撞”——它们“看不到全局”,并且从来不会进行“突破性思维”。假设你有一个用喷火器保护自己的机器人,一旦有一个机器人接近它3米的地方,它就会“轰隆”一声喷出火来。
而你的对手不需要做什么特别复杂的工作,他只需要造一个喷射汽油的机器人就可以了。一旦到了距离你的机器人只有3.5米的地方“他”就开始喷汽油,然后迅速后撤。很快你的机器就会用自己的喷火器“自焚而死”。如果换成一个人,他就会聪明地想到:我的周围是一片易燃液体,我最好不要使用喷火器。但机器人却没有那么聪明。
人工智能的研究专家把上面的例子称为问题界定。问题界定就是如何确切地了解问题的性质。一个机器人,或者任何一个将要具有感觉的“人”,怎样才能够了解自己目前所处环境的相关情况呢?他们怎么能够知道对哪些事情应该安全地回避呢?
这是人工智能研究中一个十分棘手的问题。也有人认为这是人工智能不能解决的问题。
很明显,目前没有好的办法解决这一点。当你心爱的机器人刚刚自焚身亡,你的第一反应就是发誓要制造一个新的更好的机器人,新造的机器人应该能够注意周围的相关情况,并且能够进行更多的逻辑思考。这些都是伟大的目标,但是在芯片和程序编码的世界中,要实现这些却很艰难。要对机器人的“注意力”进行拓展,那么机器人大脑所要进行的运算就需要指数级的增长。机器人考虑的问题越多,反应就越缓慢。对于一个机器人来说,还有什么比“反应迟钝”更叫人难以接受的呢?
与今天的人工智能系统相比,人类更擅长进行问题界定。当我们遇见问题,我们的本能会告诉我们什么是和该问题有关的,什么是和该问题无关的。尽管这些本能也并不总是完全正确,也许逻辑问题就利用了这种本能的易错性。你开始解决问题时总是利用本能对有关和无关的问题进行一些假设,许多难题就是经过巧妙的设计,使得这样一些基于本能的假设容易出错。
要想有效地解决难题,你就必须同时从两个或多个层面开始工作。一个层面是意识,用来解决问题;另一个更高的层面用来监测解题的进程。你需要不断地自我提问:“这个方法起作用吗?我在这个问题上已经花费了多长时间?我很快就能够找到问题的答案吗?我应该尝试别的方法吗?”