注册 | 登录读书好,好读书,读好书!
读书网-DuShu.com
当前位置: 首页新闻资讯书讯

“大象不会下象棋”:人工智能已陷入瓶颈?

中世纪以来盛行的自动机械人偶,曾让欧洲的皇室和宫廷贵族着迷发狂,传教士甚至将其作为贡礼献给中国皇帝。从雅凯-德罗兹的写字小男孩儿到坎普林的下棋机器人,人和动物的形象,被频繁地制成荒诞而逼真的

【编者按】

中世纪以来盛行的自动机械人偶,曾让欧洲的皇室和宫廷贵族着迷发狂,传教士甚至将其作为贡礼献给中国皇帝。从雅凯-德罗兹的写字小男孩儿到坎普林的下棋机器人,人和动物的形象,被频繁地制成荒诞而逼真的机器,仿佛有了“能动的生命”。这一切都源于“万物机械说”的大行其道,它牵涉出的是困扰人类始终的问题:生命是什么?机器会拥有生命吗?事物运转的动力来自内部还是外部?

杰西卡·里斯金在《永不停歇的时钟:机器、生命动能与现代科学的形成》一书中从中世纪自动发条机器人到当代人工智能,溯流机械论的历史,探求生命的终极命题。本文摘自该书关于人工智能的相关章节,标题为编者所拟,澎湃新闻经中信出版集团授权发布。

在过去30年左右的时间里,认知科学的跨学科领域吸引(汇集)了来自不同领域、对研究大脑如何运作感兴趣的人们,这一领域被分为两大阵营:“具身化阵营”和“表征性阵营”。两大阵营创建并使用“机器”又或者利用“机器”以支持各自的观点。“具身化”阵营一直站在反叛的立场。大约从1980年开始,他们一直反对神经科学家、语言学家、哲学家及心理学家从语言和认知表征角度理解大脑的运作机制。

麻省理工学院的机器人学家罗德尼·布鲁克斯教授于1990年发表了题为《大象不会下象棋》的宣言。布鲁克斯警告称人工智能领域正在衰退,并且被以“符号系统假设”为形式的笛卡儿的理性主义所替代。这一假设认为人工智能是由受规则制约的符号操作系统构成,这一符号操作系统代表了外部世界。换句话说,人工智能领域存在一个假设,认为智能存在于“思维和理性”中。“下棋”这一智能行为为符号系统假设理论提供了一个典型例证。以理性符号主义立场为基础的人工智能已经进入了瓶颈期,因为对于智能这一概念的理解,他们至少忽略了很多方面。例如,仅仅凭借“大象不会下象棋”就武断地认为大象没有智力研究价值是不公平的。

智能的核心,简单来说就是存在和反应的精华部分。这曾经是布鲁克斯认为最难攻克的部分,用进化论的术语来讲,象棋就是基于这一发现衍生出来的。因此,他创造出了新型人工智能,它是具体化理论而非抽象主义理论的产物,它摒弃了用符号系统再现世界的理性操控系统,让真实的世界直接参与其中。这种理论指导下研制出的人工智能产物所具有的智力水平更像一头大象的智力,而非一名象棋大师的智力。智能并非抽象的,而是植根于或存在于智能产物本身或它存在的环境中。一切物体的“目的”或“愿望”必须以真实的行为体现出来,“而且所有的信息都来自机体感官”。

布鲁克斯和新一代人工智能的同事们没有把人工智能分解为信息处理模式,而是将其作为一系列“行为产生模块”的结果演化而来。因此布鲁克斯的新一代人工智能也被称作“行为机器人学”或“进化机器人学”,他和同事们将组装行为生成模块的设计方案称作“包容体系”,因为它是由分散的行为直接组合而成,没有一个行为居于高层,监管其他行为。布鲁克斯说,这些行为犹如抽象的屏障,每个行为都需要直接参与到真实的环境中。包容体系将这些行为整合在一起,使知觉和行动紧密相连,从而使机器人走进现实生活。

布鲁克斯机器人的一个重要特点是,它们不是笛卡儿式的、统一的、自我认知的机器人,而且没中央信息仓库,没有整体的管理模块。它们的智力水平相近,不存在“侏儒”。“侏儒”一词可能会令人疑惑,称其为侏儒,布鲁克斯并非指17世纪胚胎学中预先成形、体形矮小的机械胚胎,而是智力上的侏儒,理性缺失灵魂矮小的侏儒。布鲁克斯研制的机器人没有理性,各个行为之间互不关联,互不知晓。布鲁克斯对于机器人“赫伯特”的描述中就能体现机器人缺乏一个能感知的主题。这个机器人围绕实验室闲逛,走进办公室,取走里面的空汽水罐。其间,它需要绕过障碍物,沿着走廊和房间的墙壁前行,发现汽水罐,再捡起汽水罐。布鲁克斯写道,赫伯特的神奇之处在于它的行为生成模块之间没有任何关联。每一个单一行为模块都与感官连接,并通过感官与现实世界中的办公室和汽水罐产生联系。找到汽水罐这一动作,驱使机器人向汽水罐走去,但是该行为并没有告知胳膊控制器现在需要捡起一个汽水罐。捡起汽水罐这一行为是由胳膊对轮子做出回应而产生的行为。当轮子停止转动,胳膊会牵动手掌运动,寻找眼前的汽水罐。当有东西穿透手指间的红外线光束,手则应激做出“抓取反射”,将手指并拢。单独的模块无法负责下达指令、控制整个项目。这样的结构,具备很大的灵活性和机会空间。布鲁克斯解释道,如果有人直接递给赫伯特一个汽水罐,而不是它之前在找的汽水罐,它也会抓住汽水罐。这使得拾汽水罐的机器人赫伯特这一设计非常成功。但能否说它是一个典型的自然智能案例呢?据布鲁克斯的观点,赫伯特的出现,表明自然智能也能不依附一个统一的、有认知能力的主体而存在。布鲁克斯写道,观察者会不自觉地把系统的内部结构想象得比现实复杂。看起来赫伯特仿佛在做一些诸如路线设计、图纸规划之类的事情,实则没有。

但是赫伯特真的缺少一个完整的、有认知能力的主体吗?答案必须依据我们如何定义“完整的、有认知能力的主体”来定。机器人的自主行动与其输出面的“判断网络”相连,其可驱动执行器,让赫伯特能够根据传感器带来的信息采取行动。而且,有一个完整的项目存在于赫伯特发明者的头脑里,该项目清晰地包含了拾汽水罐这一活动自始至终的计划。为了证明表面有目的的行为来源于大量无目的的行为,一个人不需要看到表面的目的性是来源于实际的无目的性,而不是像赫伯特那样,由明显不相连的部分组装而成吗?换句话说,难道不是无目的性显而易见,而非目的性吗?

同样地,根格斯是一个能够在恶劣地形里导航行走的机器人,它没有单一的控制系统,“中枢表现”或者“能使机器人配置模式化的知识储备库”。布鲁克斯把它面对碰撞和凹坑时表现出来的稳健性归因于操纵装置的分散式本质。这对于托托来说也是一样的。托托是一个能在没有传统“地图”,即特定地域静态表现的引导下,按照命令走到指定地点的机器人。相反,托托可以利用由“节点”组成的地图,每一节点是一种“行为”。当托托在一处地形漫游或遇到地标时这些“行为”会被激活。

“如果节点发现自己与机器人目前所处位置相对应,节点会更活跃。因此除了分散式计算模型(并非统一的自我),机器人既有地图又有感知它在地图上所处位置的能力。”布鲁克斯并没有详述一个行为节点能意识到自己在世界上的位置,这可能意味着什么。他认为托托并没有表现出“局限在它的头脑里的”任何东西,但是它却像人们想象的那样行事,从而构成了对“传统表象主义的致命一击”。据布鲁克斯所说,每一个机器人看起来都像是按照一套集中的目的行事,但这只是一个幻象,无论是在人造智能物或是自然生命中,“智能都出自观察者之所见”。机器人本身就能体现这一观点,即布鲁克斯研究程序的主导观点:“将原有的方式反其道而行……这是一个完全关乎认知的外部观察者,他认为认知能力源自一个系统,这一系统在外部世界运作良好,而在认知产生的这一机体中却没有容身之地……认知只存在于观察者眼中。”布鲁克斯的作品中频繁提到这一点,只有物体观察者才会假定存在一个中央表征系统或中央控制系统。物体本身并无这些系统,它只是一系列相互矛盾行为的集合体。在观察者的眼中,从其自身一堆混乱的交互行为中,能摸索出一套连贯的行为模式。布鲁克斯是个正统的笛卡儿主义者,他认为一个纯粹的物质产物,应该是意识和物质分离的,没有理性的。他与笛卡儿观点的不同之处在于,他认为根本就不存在这样统一的、理性的自我。

据发明者透露,这种类型的机器人缺乏秩序,本质上更是被动的。它们各种行动的能动性源于外部,也就是说它们并非主动在环境中运动,而是受到外力牵引:“很大程度上,机器人的行为取决于外界环境……它们身上也没有统一的中央调控系统,而是靠有限状态调控设备,根据自身接收到的信息进行决策。”布鲁克斯认为,机器人被动、去中心化的行为模式看似是思维的对立面,但实则蕴含了思维的本质。真正的生物系统并非靠理性主体输入外部信息,经过逻辑加工分析,产生输出物,而是通过一系列的行为机制及各种方式运作,最终产生我们看到的并且习以为常的行为。

布鲁克斯哲学的核心是体现这一概念,是一种将要到来的无能动性模式(一个较为新近的观点)。“我认为思想和意识是生存在世界上的一种偶然现象。”布鲁克斯发明的机器人居住环境越复杂,它们受外力牵引在其中生存时,自身的行为也会变得越复杂。因此它们的行为会变得更加智能,更加深思熟虑,更加有意识感。“意识和思想无须由程序添加进去,它们会自动生成。”

如果生存环境中存在一些有意识和思想的生物,并且经常与这样的环境交互,意识和思想才能涌现。“Cog”是一个类人机器人,有躯干、头、脖子、手臂和双手。它还拥有传感系统,如视觉系统(摄像头)、听觉系统(耳机)、感知系统(电阻式力传感器),同时也具有本体感受系统来感知头的位置,控制平衡。如果安装了名为“天命”的头部系统,它具有卡通特色的脸上能做出诸多表情,包括生气、疲倦、害怕、厌恶、兴奋、愉悦、感兴趣、伤心、惊喜。这些表情由机器人身上的各大系统掌控,布鲁克斯分别将其命名为“驱动系统”“行为系统”“情感系统”和“状态系统”。

例如,只要机器人的驱动装置运行在一个能够自我平衡的范围之内,那么机器人就能表现出“感趣”和“开心”。但是如果任何一个装置偏离了这一范围——例如,如果一段时间内机器人接受到的刺激不足——就会呈现出悲伤的表情如“伤心”。布鲁克斯和他的同事们则扮演“照看者”的角色,这一过程类似于父母和婴儿之间的互动。作为“照看者”,他们教给机器人一些基本动作,如指向某个视觉目标,模仿人点头。

尽管在这些方面较为成功,然而“Cog”毕竟不是一个统一的整体,我们不难想象它会缺乏“连贯性”。它没法在自己的多个行为中做出抉择,比如,在转动身体看到某张脸或伸手去抓住某个物体这两个动作间不能自主选择。“Cog”能有多少基本行为数,问题便会以其平方倍数呈现出来,因此问题的严重性可能在短时间内迅速加剧。

在布鲁克斯对其机器人的描述中,反复强调了自我和能动性,起初都使用被动语气,渐渐地就会变成主动。这种转变在描述包容体系结构的“高”层时变得尤为明显。例如,艾伦是个可以进行探索并避开障碍物的机器人,在对其的描述中,他提道:“大约每隔十秒这个机器人就会产生一种愿望,想要朝着一个随机的方向前行。”然而,艾伦的包容系统结构的高层结构则会“通过声呐系统使机体向远处观看,并设法朝远处走去”。高层结构的意愿就会压制闲逛层想去的方向。由于艾伦避开障碍这一行为,“ 高层结构需要通过测程法观看现实世界正在发生怎样的事情,以此了解控制层的决定,并向下传达正确的方向信号”。这段对于艾伦运行机制的描述,暗示了它的高级行为中包含一种智能,相对来讲具有中心调控、统一协调、主观能动等特性。

但是布鲁克斯和他的支持者们都认可采用行为主义、进化主义以及“具身化”的方式实现人造生命或人工智能。传统人工智能则常采用计算主义和表征主义的方式。二者其实具有很大的相似性,只是他们从来没有意识到。他们分享了笛卡儿的信条,物质存在没有内部理性主体,物质和意识是分开的,这也表明他们都具有反笛卡儿主义思想,万物都是物质与意识的统一,不存在任何物体物质和意识分离。“在你的脑海中,有很多不同的想法”,人工智能领域极具代表性的多部作品的作者,神经网络模拟创造者马文·闵斯基(Marvin Minsky)如是写道。人的多种思想之间既能如家庭成员一般亲密合作,也能像住在隔壁的人一样彼此互不了解。如同在一个房间中的多个帐篷,这些想法都住在你的脑子里,但彼此之间不一定要分享精神世界。

闵斯基曾在别处运用过另一个隐喻,将人脑描绘成“一个混杂的机构”,其中所有的机构彼此之间互不了解。他所描绘的人饮水的过程,和布鲁克斯描绘赫伯特拾汽水罐的方式是完全一样的。“抓取系统”想要抓住杯子,平衡系统负责防止水溢出,口渴系统会想喝水。运动系统负责把杯子送到嘴边。人体内满是行动系统,也因此完全缺乏主导体系。丹尼尔·丹尼特是塔夫斯大学人脑和生物学领域的哲学家,除了上述这两个领域,他在传统人工智能和行为机器人领域也都占有一席之地。他同样认为的确不存在自我。丹尼特早期认可如下观点:用数字电脑模仿人类认知便可了解人类认知。后来,他重新思考这一问题,并规定任何有人工智能的产品都要有“眼睛、手、耳朵,并且要有自身的历史记载”,并杜撰了“高教会计算主义”一词来批判传统人工智能。然而在批判之余,他却赞同计算模式有助于人们理解人脑结构的深层理论问题。

就自我不存在这一问题,丹尼特对于处于对立面的闵斯基和布鲁克斯两位同事的观点都表示赞同。闵斯基认为人只不过是神经系统中的各种器官分支系统和各种神经活动的组合。丹尼特对此表示认同。因为对这一观点表示怀疑就等同于拒绝让直观判断处于待命状态。如果你很难想象如何在没有决策者的情况下谈论众多决策,如何在没有反对者的情况下谈论反对意见,以及如何在没有思考者的情况下谈论思想,那么你可以停下来想象一下,这个几乎无法设想的举措可能是一个巨大的突破,而不是一个错误。

因此笛卡儿理性自我几乎完全被排除在现代人工智能、认知科学以及行为机器人学之外。先前传统人工智能学派曾认为人脑中有一个“小人”负责将大脑对世界的反映进行解读。传统人工智能拥护者、计算主义者如哈佛大学认知科学家史蒂芬·平克(Steven Pinker)后来将这一观点从他们对大脑认知的传统观点中剔除。平克称之为“精子微人”的这一小人代表一个理性主体,而非一个真实的微小胎儿。实际上人脑中不止有一个,而是无数个这样的小人。在计算机领域,它们被称作“智能体”“守护程序”“监控程序”“解释程序”或“执行程序”,平克认为所有这些都能在人脑中找到与之对应的部分。这一大批精子微人在科学解释中被看作合理的元素,而非毫无意义的虚构之物。因为这批重新定义后的微人,较之传统意义上的微人在功能上受到限定,也更加迟钝。它们无知、狭隘、盲目。最小、最低层的微人非常愚蠢,甚至可以用机器来取代。人们在整体项目中挑出来单个精明的微人,转而将工作安排给那些数量众多的蠢笨微人。

传统的人工智能倡导者认为,人工智能本身就是一个谜,是一个被误解的假象。闵斯基和图灵都认为智能是基于观察者无知的臆想物。过去的20年中,雷·库兹韦尔(Ray Kurzweil)一直在宣扬传统人工智能,他也认可这一观点。据闵斯基观测,他认为智能是我们看清自身对人脑运作一无所知的片刻。这是因为,最小、最低层的思维智能体并不聪明,甚至“根本无法思考”。如果人脑功能被不断缩减,以至于到达最低能、最低层的智能层面时,人脑的智能特质就会消失殆尽。

传统人工智能研究者,如传统控制论学者以及他们现今的继承者、行为机器人专家也认为生物活动和智能物体的活动源自有知觉的生物身处的环境中。为了解释一个人如何科学描绘目的等其他思维产物,丹尼特发明了他所谓的“意向立场”。“意向立场”就是通过“信念系统或愿望系统(如希望、害怕、意愿、预感)”解释生物或者人造物体的行为。这样做时,人们必须牢牢记住。所讨论的实体本身并不是有意的,而只是“与试图解释和预测其行为的人的策略有关”。换句话说,要想理解生物这一“纯物理系统”,人们很可能发现如果假设这一系统有信仰、有愿望且具有理性,那么预测该系统一事将变得“方便快捷,易解释,且具有实用价值”。

为证明把愿望和目的赋予物理系统合情合理,丹尼特给出的理由是我们通常认为机器人有理解力,有各种目标。因此至少有一种完全机械化的物体具有目的性,虽然这种目的性只存在于人们的想象中。计算机和人类赋予它的某些解释相关,只算得上忠诚于人类分派的任务,记住任务,完成任务等。如果勉强要说计算机有目的,那也只能是融合了其创造者的意图。丹尼特认为不同于机器人,人类不受制于这种意图创造者,至少对于不相信上帝的人而言是这样。不过他在自然选择领域找到了答案,他认为自然选择能给生命系统的物质属性赋予“内容”,也就是目的性。尽管他一直坚信达尔文自然选择论的无意识性,但是他最近发表的进化论作品中指出:“最原始、最基础、最笨拙的进化……每一步进化都是野蛮的、机械式的、合乎规则的爬升。”

丹尼特认为不论能动性的外部来源是什么,它都肯定不存在于物体内部,而必须来源于物体外部。他的这一观点在传统人工智能领域和行为机器人领域都广为流传。这一共识认为,能动性必须是显而易见的,因此必须是物体所处环境的产物而非来自物体内部。赫伯特·西蒙(Herbert Simon),卡耐基梅隆大学的经济学家、认知学专家、计算机科学家,将人类行为的复杂性比作蚂蚁围绕沙滩行进的路线。西蒙将这一路线誊到一张纸上,给一个毫不知情的朋友看。在这位朋友眼中,这条路线像是滑雪专家在为障碍滑雪赛导航,或是一个水手在大风中维持航向。因为这条路线暗含了方向感和目标感,指向一个潜在目标。西蒙指出,事实上这一目标导向源于物体之外。“复杂性源自沙滩表面的复杂性,而不是因为蚂蚁本身很复杂。”

西蒙和艾伦·纽厄尔(Allen Newell)合作完成了人工智能领域具有里程碑意义的两个项目,分别是逻辑推理机和一般问题解决器。西蒙同时还是人类思维、行为计算模型最具影响力的倡议者。但是在能动性问题上,他与新、旧派控制论者的观点一致。西蒙想,蚂蚁的例子同样适用于人类。它们行为中“明显”的目标导向复杂性很大程度上是“环境的反映”。

计算主义和行为机器人学者都认可的一条准则:任何物质都不具有认知能力。拿行为机器人专家来说,考虑到他们将重点放在物理接触和具象化上面,我们很吃惊地发现,他们所用材料的物理特征并不能构成他们理论讨论中那种及时响应的、吸引人的、有生命力的行为。相反,在他们的理论讨论中,详述了机械的结构特征。计算主义者同样认为,没有特定的物质有认知力。“智能”,平克写道,“常常被归结为某种能量流或力量场。”这种观点与“唯心主义、伪科学和科幻小说”有关。使一个工具或者生物变聪明的不是制造它的材料本身,而是事物各自组成部分的保真性,这种保真性则象征着外部世界的成分。一个感性的生物,其构成物质与其感性本身并无关联,这是两个研究项目共用的定理。然而,其他的自然力量和自然现象,比如电、磁、化学和引力,都是与某种特定的物质相关的。那么为什么像平克所说的,智能和某种特定物质相关的观点被归为“唯心主义、伪科学和科幻小说”呢?我认为这其中的原因是这样的观点违背了简单机械论者对自然界中能动性作用的排除、禁令。那些还在支持这一禁令的人似乎并不记得,他们最初做出这一决定的理由,其中神学方面的因素并不比科学的少。

《永不停歇的时钟:机器、生命动能与现代科学的形成》,[美]杰西卡·里斯金著,王丹、朱丛译,中信出版集团2020年7月。

热门文章排行