注册 | 登录读书好,好读书,读好书!
读书网-DuShu.com
当前位置: 首页新闻资讯书摘

人工智能不是无所不能的

在数学上,人心比计算机更加优越。——哥德尔2017年10月,谷歌下属公司DeepMind在《自然》杂志上发表论文,其研发的AlphaGo Zero在完全不用人类棋谱,从随机走子开始自我对弈学习,只用3

在数学上,人心比计算机更加优越。

——哥德尔

2017年10月,谷歌下属公司DeepMind在《自然》杂志上发表论文,其研发的AlphaGo Zero在完全不用人类棋谱,从随机走子开始自我对弈学习,只用3天,AlphaGo Zero就以100:0击败了2016年3月战胜李世石的AlphaGo Lee。40天以90%的胜率大胜之前战胜了世界排名第一的中国棋手柯洁的AlphaGo Master,成为目前最强的围棋程序。在那些对弈棋局中AlphaGo颠覆了许多由古至今的围棋定式,而且最后证明它的选择都是成立的。从而证明,在围棋这样的完全信息博弈游戏领域不用借助任何人类知识,人工智能也可以自我训练,并横扫 顶尖职业棋手。

在扑克这类不完全信息博弈游戏呢?随机性、信息不完全可见性、博弈规模大等条件下,是不是能够阻挡人工智能的脚步?答案也确是否定的。由卡耐基梅隆大学(CMU)开发的名为Libratus的人工智能系统,在一对一、无限制投注的规则下,击败了世界上最强的人类德州扑克玩家。借助于博弈论与强化学习等模型,结合强大计算能力,在非完全信息博弈游戏领域中人工智能也完胜了人类。

2018年,在全球蛋白质结构预测竞赛(Critical Assessment of protein Structure Prediction,CASP)上,组织者宣布,谷歌DeepMind团队的最新人工智能程序AlphaFold,仅仅通过蛋白质的基因序列,就能预测蛋白质的3D结构,成功在43个参赛蛋白中拿到25个单项最佳模型。[1]这极大推动该领域的发展,模型找到了基因序列数据中人们没有认识到的规律和信息。

在一些领域都传出人工智能战胜人类的新闻,人们不禁担心人工智能即将在各行各业代替人类,各种媒体的报道也助推了这样的焦虑,仿佛没有什么是其不能解决的。这其实涉及人工智能和人类的能力边界问题。我们定义这个能力是特定领域中解决问题的能力。这自然也离不了对于世界的基本假设。看起来都是非常哲学与科学的主题,但又是探讨领域中人工智能应用不可回避的主题。不用担心,请耐心阅读,希望本章的论述能让您对人工智能在领域中的应用的边界和方向等有自己的看法。

弱人工智能与强人工智能

1956年,在达特茅斯大学举办的夏季会议上“人工智能(Artificial Intelligence,AI)”一词正式被提出。在过去半个世纪,几经冷暖。2012年,图灵奖获得者Geoffrey Hinton领导的课题组参加了ImageNet图像识别比赛,通过卷积神经网络(CNN)在比赛中一举夺得冠军,性能远超第二名。2016年,谷歌AlphaGo战胜围棋世界冠军李世石,彻底引燃人工智能热潮。这里就不回顾人工智能发展史了,有兴趣的读者请参阅《人工智能:一种现代的方法》[2]等相关书籍中的介绍。

什么是人工智能(AI),在《人工智能:一种现代的方法》书中对人工智能的4种用途进行了定义:

? 像人一样思考

? 像人一样行动

? 合理地思考

? 合理地行动

这定义是指强人工智能(Artificial General Intelligence, AGI),也叫通用人工智能,是能够独立进行思考、计划、解决问题、抽象思维、学习、认知和推理等行为的机器。强人工智能目的是研究具有感觉和自我意识的智能机器;是能独立思考问题,并在能力范围内制定解决方案;有自己的价值观选择体系进行决策;能够在无监督的情况下处理经验外问题;并同时能够与人类交互式学习的智能机器。科幻片中智能助理几乎都是强人工智能,比如,《她》(2013)中的萨曼莎,《人工智能》(2001)中的小男孩大卫,以及《机械姬》(2015)里面的艾娃等。

电影《机械姬》中的艾娃

与之对应的是弱人工智能(Artificial Narrow Intelligence, ANI),也叫专用人工智能:不是强人工智能的智能机器,不拥有独立思考能力,也不会有自主意识进行决策。弱人工智能专注于某个特定的任务,例如语音识别、图像识别、围棋和自动驾驶等。它们只是被用于解决特定的、具体的任务,属于工具的范畴。

人工智能技术近些年的进展和成功,是缘于“弱人工智能”而不是“强人工智能”,IBM的Watson和谷歌的AlphaGo等,都属于弱人工智能。目前,人工智能取得重大突破的,是弱人工智能领域,强人工智能几乎没有进展。何况,是否应该研究强人工智能,科学界和工业界都存在很大争议。国内知名人工智能专家周志华教授就提出:“即便强人工智能是可能的,也不应该去研究它。”[3]

不具备常识的人工智能

? 莫拉维克悖论(Moravec's Paradox)

莫拉维克悖论是由汉斯·莫拉维克、马文·明斯基等人于1980年代提出的:模仿人类的高阶智慧能力只需要非常少的计算能力,如,推理等,所以要让人工智能下棋是相对容易的。但是要让人工智能模拟一岁小孩般的感知和行动能力,模拟人类直觉等,却是相当困难甚至是不可能的。2019年,机器学习领域国际顶级会议,国际机器学习大会(International Conference on Machine Learning ICML),Alison Gopnik教授主题分享“为什么四岁儿童能做而人工智能不能做?”[4]也探讨了同样问题。

人工智能之父马文·明斯基在其著作《情感机器》[5]中讨论了人类大脑的思维运行方式,并尝试设计一个能理解、会思考的人工智能。其在回答为什么会有莫拉维克悖论时说道,“所有的现代程序都不具备常识性知识(Commonsense Knowledge)”。这亦是人工智能产品常常给人感觉不够智能的根本原因之一。常识性知识和推理包括:

1)正面经验(Positive Expertise):在什么情况下应使用特定类型知识。

2)负面经验(Negative Expertise):在什么情况下不应采取哪种行动,因为可能会使事情变得更糟。

3)调试技能(Debugging Skills):当常规方法不再适用时,还有其他可供选择的方法。

4)适应技能(Adaptive Skills):将原有知识应用到新情景中。

人类的能力之一是从少数例子中学习,进行模式识别。即使之前从未遇到过的环境,我们也可以进行判断和预测。这种对未知环境、未知事件的处理能力,是当前人工智能无法具备的。明斯基在书中提出了通过框架表示常识试图模拟这个能力。Alison Gopnik的分享中也引用类似观点。这属于机器学习中的符号主义(Symbolists),不同于当前大热的联结主义(Connectionists)的深度学习。将两个领域有效结合是未来机器学习的重要方向之一。

人工智能之父马文·明斯基

为什么深度学习能“大力出奇迹”

深度学习(Deep Learning),概念源于神经网络的研究,指通过构建深度神经网络结构,将原始数据转变成为更高层次的、更加抽象的特征表示,从而使复杂的函数映射也能够被学习。近些年,人工智能大热的起因就是由于深度学习在一些领域取得突破性成果,在图像、语音、自然语言处理等领域取得非常好的效果。目前机器学习、深度学习的应用在各行各业都越来越热。深度学习虽然在一些应用场景取得了巨大突破,但业界也存在大量批评的声音,通常包括以下质疑:

? 深度学习模型的优化是经验性的、不稳定的。

? 效果依赖于大量标注的训练数据。

? 不透明、可解释性差。

? 难以结合领域的先验知识。

? 低效率等问题。

2018年1月,纽约大学认识心理学家Gary Marcus发表一篇文章[6]列举了十大理由质疑深度学习的局限性。图灵奖得主、贝叶斯网络发明者Judea Pearl也批评当前深度学习研究,认为从数学层面看,不论从数据中得到多少信息,都只是曲线拟合而已,但很多问题仅靠曲线拟合是无法解决的,未来的发展方向应是基于因果推理的模型。[7]

之后,2018年图灵奖新晋获得者、Facebook首席AI科学家Yann LeCun等知名专家学者在社交媒体上就深度学习展开了多轮的论战,探索深度学习的适用场景与局限性。Yann LeCun坚持认为深度学习是人工智能解决方案的重要部分之一。

强化学习领域著名教授理查德·萨顿(Richard S.Sutton)则认为,人类不应试图把自己的知识和思维方式植入到AI之中,比如用人类的思路教AI下棋,将让AI按照人类总结的思路来识别图像,等等。真正的突破,必然来自完全相反的方向。摒弃人类在特定领域的知识,充分利用大规模计算才是王道。用人类在特定领域的知识来提升人工智能,都是在走弯路。OpenAI首席科学家Ilya Sutskever精辟地总结了萨顿的核心观点:大力出奇迹(Compute always wins)。对此也有相反观点,牛津大学计算机系教授希蒙·怀特森(Shimon Whiteson)就认为构建AI需要融入人类知识,问题只在于该何时、如何、融入哪些知识。[8]关于深度学习、人工智能发展方向的讨论,本书不再过多引述,感兴趣的读者可以看看双方的论战。

笔者认为,在科学界,自然需要各样的研究方法论。但在工业界,在一些特定领域,“大力出奇迹”,是不二法门。大规模计算的作用还远远没有发掘完,只要数据数量与质量、计算能力持续提升,加之算法的优化,在工业界一定还有更多的惊喜等着我们。靠自我对弈围棋的AlphaGo Zero,基于深度学习识别语音、图像的算法等,一次次击败了先前那些浓缩了人类知识的人工智能方案。2018年,狂破11项自然语言处理领域纪录的谷歌BERT(Bidirectional Encoder Representation from Transformers)模型[9],其亦是借助大规模计算,通过预训练得到更好的文本特征,属于暴力模型。

自然语言处理处理(Natural Language Processing,NLP)是人工智能领域的一个重要方向,主要研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。大量训练数据和云计算可以说是近几年深度学习在自然语言处理方面取得了重大突破的重要前提。为什么大力能出奇迹?谷歌的BERT模型,使用无监督学习[10]对大量语料进行预训练,设计了两个预训练任务:一个是随机遮蔽掉一个句子中某个词,利用上下文进行预测;另一个是直接预测下一个句子。预训练模型的目的是为每个词汇找到恰当的向量表示。当特定领域中相关语料越多,效果越好。就是说机器学到了语料数据中,我们无法用符号表述的规则或知识。

深度神经网络的理论依据之一——万能逼近定理(Universal Approximation Theory):神经网络能以任意的精度逼近任何从一个有限维空间到另一个有限维空间的连续函数。

2015年,三位图灵奖获得者、深度学习和人工智能领域的著名学者杰弗里·辛顿(Geoffrey Hinton)、延恩·勒昆(Yann LeCun)和约书亚·本吉奥(Joshua Bengio)在《自然》杂志上发表了深度学习综述论文[11],文章中总结了深度学习在一些领域确定突破性成果的原因。对于一些复杂的问题,如图像、语音、自然语言理解等,研究人员往往很难知道提取哪些特征合适。解决的方法之一是表征学习(Representation Learning),通过机器学习方法去提取特征。“深度学习就是一种表征学习方法,把原始数据通过一些简单的但是非线性的模型转变成为更高层次的、更加抽象的表达。当神经网络足够多层,再复杂的函数也可以被学习。”

在王维嘉的《暗知识》[12]中提到,数据有一些人类既无法感受又无法表达和描述的暗知识隐藏在海量数据的关系中。他也例举了AlphaGo Zero“自学”战胜之前基于人类棋谱最强AlphaGo Master,认为机器发现了人类既无法感受也无法表达的知识。利用机器挖掘我们人类无法认识的知识与信息,是其书中提出的重要观点,笔者非常认同。知识表征(Knowledge Representation)是人类永恒的问题,是对事物、事实的一种代替,以使我们可借助用知识表征的符号进行计算,对世界、事实进行推理。过去几千年,人类都在进行宇宙、世界中事物、事实的知识表征探索,而利用机器挖掘数据中我们所不能理解的知识表征才刚开始。所以,在数字化时代,“大力出奇迹”才刚起航。

工业界击败BERT模型已然出现,2019年7月,阿里巴巴公司的“TransBERT”模型在多轮对话型阅读理解评测(QuAC)进一步刷新了记录。[13]可以想见,基于自然语言模型的智能新闻、语音助理等将成为领域中可行的、更高效的方案。

人心计算不可替代的优势

人们说到心灵的时候,说的并不是一台(任何一般意义上的)机器。而是一台察觉到自身的正确性的机器。

——哥德尔

前面章节所提到的常识,亦是一种直觉。爱迪生说过“天才就是99%的汗水加上1%的灵感,但没有这1%的灵感,那99%的汗水也是徒劳”。灵感既大师、专家们在决策时的直觉。诺贝尔经济学奖、图灵奖获得者郝伯特·西蒙做过一个国际象棋棋法研究,其将一个布局合理的中盘棋局给大师们看,他们往往能在很短的时间就找到最优下一步,这就是基于直觉的搜索。专家和新手区分不仅是前者具有大量和多样的信息,更重要的是,他的直觉经验使其能快速发现所面对的棋局形势中的熟悉模式。长期记忆中储存大量的棋局模式,识别这些模式,从长期记忆中找到相关信息,这样的直觉搜索,并不需要大量复杂的脑力计算。

而AlphaGo在模型训练过程中,也是抽取一盘围棋中的随机中盘布局,使用蒙特卡罗树搜索(Monte Carlo Tree Search,MCTS)结合估值网络(Value Network)来搜索最优下一步。由此看来,对于一个领域问题,新手往往是低效的、痛苦的直觉搜索,专家是高效的直觉搜索,而AlphaGo是启发式结合暴力搜索。即,人类和人工智能是完全不同的搜索途径。计算机不必学习人的做法,就如同飞机不必学习鸟的飞行一样。但,是否可能借助人工智能提高新手的搜索效率呢?这应该是个非常值得探索的方向,在之后的章节还将探讨该主题。

现代的计算机的理论依据是伟大的数学家、逻辑学家艾伦·麦席森·图灵发现的图灵机理论。该理论中的停机问题(Halting Problem)是哥德尔不完备定理(Godel Incompleteness Theorems)的一种证明。图灵机以一种精确的定义完全把握了机械(或计算)过程的直观概念,因而彻底解释了哥德尔不完全性定理的普遍性。

哥德尔不完全性定理:任何一个形式系统(图灵机是一种形式系统),只要包括了简单的初等数论描述,它必定包含某些系统内所允许的方法既不能证明真也不能证伪的命题。

根据哥德尔定理,基于数论的所有一致的公理化形式系统都包含有不可判定的命题,基于图灵机原理的计算机自然也包括在内。而人类基于直觉、情感的决策并不并这个问题。一个十分著名的例子,当亚历山大面对难以解开的“格尔迪奥斯绳结”,用手中的剑直接就将绳结砍断。跳出来看问题,这是人类的能力之一。还有,数学中著名的黎曼猜想,亦是先猜测可能的真理,就进行应用了,到目前为止,并没有证明该猜想。

对于人心计算与计算机能力对比,伟大的数学家、逻辑学家和哲学家库尔特·哥德尔认为数学直觉就可以看到并证明自身的一致性,这一点不同于计算机。人是擅长通过直觉解决新问题的,这才是相对于人工智能,人类真正的优势。

在系列电影《黑客帝国》的动画版电影,九段独立动画之一的《第二次文艺复兴》中描述了人工智能和人类的战争,最后人类启用了核武器并遮挡了整个地球的太阳光,但机器还是取得了最后的胜利。可机器无法获得太阳能,只好圈养人类获得生物能,将所有存活下来的人类养在母体Matrix中。该理由非常牵强,低等生物的能量转换率一定比人类这样的高等动物更高。更合理的解释是,由于人工智能无法代替人类的直觉计算,而直觉计算又是探索宇宙,探索数学、物理等充满不确定性领域必不可少的能力,所以只好将人类圈养在母体中。

《黑客帝国》动画版电影剧照

另外,可不要小看我们自己大脑中的计算能力,麻省理工学院物理系迈克斯·泰格马克教授在他的著作《生命3.0》[14]中参考了相关研究,认为要模拟人类大脑,所需要的浮点运算次数差不多相当于2017年全世界运行最快的超级计算机,我国的“神威-太湖之光超级计算机”,价值3亿美元。这还只是从浮点运算次数来看,要复制人脑的计算能力,光靠已有的神经网络可不行。所以在“神威-太湖之光超级计算机”的成本还没有降到和人类的成本一样前,从计算成本角度来看,决策中的人机合作都还应该以人为主。

所以,人类的直觉有其不可或缺的重要性,直觉才是人类最重要的决策方式之一,是无法代替的。在未有强人工智能,机器的计算成本未占优之前,领域中的解决方案总不免同时需要这两种计算。针对不同领域问题,根据具体情况,选取人和计算机各自优势共同构建解决方案将是可行的途径。

机器在什么场景下可以代替人?

在BBC网站上有一个页面[15],可以查询涵盖数十个领域的上千份工作岗位可能被人工智能替代的预测。这个预测是基于英国牛津大学两位学者卡尔·弗雷和迈克尔·奥斯本的研究《未来职业:工作被计算机取代的可能性?》[16]。2013年,两位学者预测,在未来10~20年间,47%的工作很有可能被自动化取代。越是专业化程度高的领域,人工智能更加有优势代替人类。而那些与人打交道的,教师、护士等,以及需要创造性思维的架构师、艺术家等是不容易被替代的。这和弱人工智能擅长的领域非常一致,在社会化大分工的环境下,弱人工智能在那些专业的领域能够代替人类部分工作。

《生命3.0》中将提出莫拉维克悖论的汉斯·莫拉维克一段关于人工智能能力前景的描述,以地形图的形式形象地画出来。其中“海拔高度代表这项任务对于计算机的难度,不断上涨的海平面代表计算机现在能做的事情。”这里计算机既包括强人工智能也包括弱人工智能。从图上看来,似乎投资也是一个即将被攻克的领域,笔者并不认同,在之后的章节还将论述。

在什么场景下机器能够代替人类决策呢?这里所指机器包括计算机系统、数据以及弱人工智能,并不包括强人工智能。如果你问一位机器学习从业者这个问题,通常,他会告诉你,如果这个有足够的训练数据,以及能构建有效收集反馈的闭环时,就可以尝试用机器学习代替人类决策。一般我们认为司机的智能助理,最终目标定位是自动驾驶。因为通过传感器可以收集大量训练数据,并且有实时反馈的运行环境。即使是伦敦黑色出租车司机,他们都必须通过严格的伦敦知识考试,包括知晓城市数千个景点和街道位置,以及在任何时段规划到目的地的最优路线等。[17]从技术角度来看,他们也是可以被人工智能替代的。驾驶这个任务,并不需要司机的个人意识,一个人类司机会享受音乐、欣赏窗外风景等等,但对于驾驶这个任务来说这些能力并没有增益,而是潜在的风险。这些场景下,人工智能必然将会替代人类决策。

在丹尼尔·卡尼曼教授《思考,快与慢》[18]中描述了两种人类决策思考的系统:

? 快思考:“系统1运行时无意识且快速地,不怎么费脑力,没有感觉,完全处于自主控制状态。”

? 慢思考:“系统2将注意力转移到需要费脑力的大脑活动上来,例如复杂的运算。系统2的运行通常与行为、选择和专注等主观体验相关联。”

快思考适用于快反馈的场景,互联网激增了这样的反馈场景。人是偏好及时行乐的,这非常符合人性,互联网产品更加推波助澜了这个倾向。新闻媒体行业应该是算法辅助人们快决策非常成熟的领域,大量的用户的特征、不断迭代算法模型、可量化的反馈等等,都已融入行业的方方面面。新闻内容产生者根据大量的反馈数据可以知道哪些用户喜欢这篇文章,阅读了多长时间,在什么地方停顿等,从而不断调整新闻的编辑,向着更好评估指标(点击率等)的方向前进。

快决策的场景基本都是弱人工智能、算法擅长的场景,因为有足够的数据与反馈,可以帮助算法提升性能。但决策并不只是快思考,在BBC的纪录片《人生七年》中,用几十年跟踪英国不同阶层的七岁的小孩子,每隔七年,都会重新采访当年的这些孩子,了解他们的现状,倾听他们关于生活、理想、人生的观点。当你观看这部纪录片时,常常能感受到有些人在面对人生重大决策时,并没有经过太多的思考就草率地决定了。人工智能的作用不只是要帮助人类去快决策,也应该辅助去做那些慢思考的决策。如何辅助,直接代替人们做出更明智的决策吗?机器学习最大的挑战之一是需要大量特定问题的样本作为训练数据,可惜关于人生,谁都没有足够的样本和反馈。在金融投资领域也同样如此,面临的问题都是不确定环境下具有时间跨度的决策问题,其关乎于未来收益,自然有不确定性等属性,也是属于慢思考决策。弱人工智能擅长快思考,眼观并不长远。在不确定环境下,特别是跨期决策,是结合行为主体偏好的选择,人心计算必不可少,并应起主要作用。更一般地来看,这其实是可计算性理论(Computability Theory)的问题,该理论研究哪些算法问题是能够被解决的。其中涉及两个重要概念,判定问题,是寻求一种能行的方法,一种算法,能够对某类问题中的任何一个问题,在有穷步骤内判定其是否具有某一特定性质。另一个概念是计算复杂性理论,使用数学方法对计算中所需的各种资源的耗费作定量的分析,并研究各类问题之间在计算复杂程度上的相互关系和基本性质。当前,人工智能如此之火,有时也会惊讶于仿佛所有的算法都归于这面大旗之下。但,不要忘记机器学习只是计算机理论算法中的一部分。

既然有不可判定的问题、计算复杂的各类问题存在,再次证明弱人工智能不应该是代替人类决策的方案。在未有科幻片中那样的强人工智能之前,弱人工智能与物联网、大数据、云计算等技术结合,在某些领域必然具备超越人类的能力。

所以,在不同场景下,弱人工智能的能力边界决定了人工智能方案的能力边界与定位。这是本书将持续讨论的问题,接下来所有提到的人工智能没有单独说明都是指弱人工智能。

注释

1.乾明.哈佛医学院研究员解读DeepMind大突破AlphaFold:有进步,但未解决根本问题[OL].凹非寺公众号.2018-12-03.

2.Stuart J.Russell,Peter Norvig.人工智能:一种现代的方法(第三版)[M].清华大学出版社,2013.

3.周志华.关于强人工智能[J].中国计算机学会通讯.2018,1.

4.https://icml.cc/Conferences/2019/ScheduleMultitrack?event=4334

5.马文·明斯基.情感机器[M].浙江人民出版社.2015,12.

6.Gary Marcus.Deep Learning: A Critical Appraisal[OL].arXiv Preprint.2018,01.

7.Judea Pearl,Dana Mack.The Book of Why: The New Science of Cause and Effect[M].Allen Lane.2018,5.

8.乾明,安妮.只有大规模算力才能救AI?强化学习之父vs牛津教授掀起隔空论战[OL].量子位公众号.2019-03-17.

9.Devlin,J.,Chang,M.-W.,Lee,K.,and Toutanova,K.Bert: Pretraining of deep bidirectional transformers for language understanding.[OL].arXiv preprint,2018.

10.无监督学习属于机器学习中的一个类别,是对无标记训练样本的学习来发现数据内在性质与规律。

11.Yann LeCun,Yoshua Bengio,Geoffrey Hinton.Deep learning Review[J].Nature.2015,5.

12.王维嘉.暗知识:机器认知如何颠覆商业和社会[M].中信出版社.2019,3.

13.阿里巴巴AI模型“TransBERT”击败全球对手,刷新了QuAC世界纪录.科技日报.2019,7.

14.迈克斯·泰格马克.生命3.0[M].浙江教育出版社.2018,6.

15.Will a robot take your job?[OL].https://www.b bc.com/news/technology 34066941.BBC.2015.

16.Michael Osborne,Carl Frey.The Future of Employment: How Susceptible Are Jobs to Computerisation?[J].Technological Forecasting and Social Change.2013.

17.在伦敦,想成为黑色出租车司机有多难?[OL].中国日报网.2018,09.

18.丹尼尔·卡尼曼.思考,快与慢[M].中信出版社.2012,7.

本文为新书《人工智能为金融投资带来了什么》(袁峻峰/著,经济科学出版社2020年3月版)第一章的部分章节。

热门文章排行