注册 | 登录读书好,好读书,读好书!
读书网-DuShu.com
当前位置: 首页新闻资讯文化

AI关乎权力而非技术;心理治疗机器人的悖论

近日,《雅各宾》发表了研究者Jason Resnikoff的文章,认为AI并非一种特定的技术,而只是一种叙述。

AI关乎权力而非技术  

近日,《雅各宾》发表了研究者Jason Resnikoff的文章,认为AI并非一种特定的技术,而只是一种叙述。AI不过是这个利用技术乌托邦主义来贬低劳动的叙述中的一个新篇章。AI有可能对工人造成严重伤害——原因并非来自技术本身,而在于老板掌控了它。Jason Resnikoff是《劳动的终结:自动化的承诺如何降低了劳动质量》一书的作者。

AI带来的物质变化并未消除人类劳动,反而让劳动退化。作者认为,这在机械化的历史中早有先例,从工业革命伊始,技术不但没有减轻工作量,反而使雇主利用技术——甚至只是技术的概念——把原本优质的工作变成了低技能劳动,并通过技术掩盖人类的劳动,让劳动力成本更低。

雇主们借用AI这个词汇来编织一个技术进步、打压工会和劳动退化(Labor Degradation,降低劳动质量)密不可分的故事。然而,这种退化并非技术的本质,而是资本和劳动关系的产物。目前关于AI和工作未来的讨论,只不过是雇主长期以来试图削弱工人权力、声称人类劳动价值下降的又一新篇章。

当技术企业家谈论“AI做这个”、“AI做那个”时(比如埃隆·马斯克向前英国首相里希·苏纳克承诺的“AI将带来丰裕的时代,人人无需工作,因为‘AI能够包揽一切’”),他们用的“AI”一词更多是掩盖实际情况。学术研究领域的AI通常并非特指某种技术,而是如权威人士玛格丽特·A·博登所定义的“让计算机做与人类思维类似的事情的实践”。换句话说,AI更像是一种希望,即制造出表现得像是智能的机器。没有一项单一技术让AI在计算机科学中独树一帜。

当前许多关于AI的讨论集中在人工神经网络在机器学习中的应用。机器学习指的是使用算法在大量数据集中寻找模式以进行统计预测,如ChatGPT这样的聊天机器人。聊天机器人通过庞大的计算能力和海量数据来计算一个词出现在另一个词旁边的统计概率。

机器学习通常依赖于设计者来帮助系统解释数据,这时人工神经网络派上用场(机器学习和人工神经网络只是AI的两种工具)。人工神经网络是一组链接的软件程序(每个程序称为一个节点),每个节点可以计算一项特定任务。以ChatGPT为例(属于大语言模型类别),每个节点是一个运行数学模型(称为线性回归模型)的程序,接收数据、预测统计可能性并生成输出。这些节点相互连接,每个链接有不同权重,用于影响最终的输出。

这种模仿与人类意识相去甚远。研究人员并不了解大脑的运作,因此无法真正将语言规则编码进机器内。相反,他们采用了微软研究院研究员凯特·克劳福德称之为的“概率或蛮力方法”。人类并不以这种方式思考。例如,儿童并不是通过阅读所有维基百科的内容并统计词语的相邻频率来学习语言的。此外,这些系统消耗大量能源且费用高昂。训练ChatGPT-4的成本约为7800万美元;Google的Gemini Ultra则达到1.91亿美元。人类学会和使用语言的成本远低于此。

在标准机器学习中,人类标记不同输入以教导机器如何组织数据及其在决定最终输出时的重要性。例如,许多人领着极低的报酬“预训练”或教导计算机程序辨认图像内容,标记图片以便程序区分花瓶和杯子。据《卫报》报道,OpenAI在肯尼亚雇用合同工为ChatGPT标记涉及暴力、自残、谋杀等内容的文本和图像,报酬低得惊人。多名工人声称这些工作条件剥削性极强,并请求肯尼亚政府对OpenAI展开调查。

《卫报》的文章以非洲员工Mercy和Anita的经历为例。Mercy是一名位于肯尼亚内罗毕的内容审核员,她的工作包括审查社交媒体上的暴力或色情内容,以确保其符合公司的社区准则。这些内容常常涉及极端暴力、性虐待等,给她的心理带来了沉重的负担。在她的一次审核中,她竟意外发现了一段视频的受害者是自己的祖父,因这段视频,她在同事面前崩溃,但主管只是安慰她“明天可以休息”,却要求她继续当天的工作。

Anita则在乌干达北部城市古鲁从事数据标注工作,负责分析视频内容中的司机面部表情,帮助构建AI的“车内行为监测系统”。她的工作压力大,报酬低,长时间面对电脑屏幕注视枯燥的视频内容,每周45小时的劳动报酬仅略高于200美元,约合每小时1.16美元。

这些内容审核员和数据标注员的日常工作极为艰苦,不仅需要时刻集中注意力,还得面对大量令人不安的内容。由于生产效率要求严格,他们必须在规定时间内完成大量任务,几乎没有时间休息或反思,许多人因此饱受心理创伤、抑郁甚至有自杀倾向。

文章指出,全球南方(如非洲)的工人因经济脆弱性,不得不接受这样的工作条件,而雇主通常对他们的身心健康缺乏关怀。内容审核公司会通过闭路电视监控系统、指纹扫描等监视员工的行为,计算每一秒的工作效率。尽管这些公司声称为贫困地区提供就业机会,但实际工作条件令人窒息,且合同通常仅为短期,员工随时可能失去工作。工人不敢抱怨,因为知道自己很容易被替代。

根据《雅各宾》文章的作者,当代AI的使用趋势却趋向于将技术神秘化,将其包裹成一个庞大且难以理解的革命性机制。这种效果并非偶然,而是符合资本的利益。AI,并不是一项革命性的技术,而是关于技术的一个叙述。AI不过是这个利用技术乌托邦主义来贬低劳动的叙述中的一个新篇章。

几家法国大型连锁超市声称他们使用“人工智能”来识别小偷,然而实际情况是这些监控是由马达加斯加的员工通过观看监控视频完成的,而这些员工每月的收入仅在90至100欧元之间。同样的情况也发生在所谓的“Voice in Action”技术(其制造商声称这是一个“人工智能驱动的”系统)上,该技术在美国的快餐店接收顾客的得来速订单;事实上,超过70%的订单都是由菲律宾的员工处理的。人类学家玛丽·格雷(Mary Gray)和微软的高级首席研究员西达尔斯·苏里(Siddharth Suri)形象地称这种将人力劳动隐藏在数字前台的做法为“幽灵工作”。

将人工智能仅视为一种技术——无论是机器学习还是数字平台——都是错误的。这引出了关于自动化的话语,而近年来的人工智能热潮正是其最新的迭代。科技进步的理念早在战后时期之前就已出现,但在二战之后,这些理念逐渐凝聚成了一种通常被用来削弱工人权力的意识形态。

这种意识形态的初始版本是二战后美国出现的自动化话语,该话语主张所有技术变革必然指向人类劳动,尤其是蓝领工业劳动的消失。它是两种相互交织的现象的直接产物。首先,是在激进的1930年代后形成的工会组织力量,这对资本构成了威胁;其次,是战后时期非凡的技术热情。从1930年代开始,美国企业就试图将自己及其产品描绘为带来左翼激进分子曾与政治革命联系在一起的那种乌托邦式未来的源头。(例如,杜邦公司承诺通过化学实现“革命性”变化以及“更好的生活”,而不是财产的重新分配。)

二战的胜利、政府资助的技术突破以及随之而来的经济繁荣似乎印证了这种观点。正如1955年《商业周刊》所说,人们“感到实验室和工厂里诞生了某种新事物和革命性事物”。因此,从工业领袖到工会官员,再到学生运动成员,甚至一些激进的女权主义者,都觉得或许美国技术能够克服工业资本主义生产中最痛苦的特征:阶级斗争和工作异化。

这种普遍的信念促使福特汽车公司的一位生产副总裁创造了“自动化”一词,用来描述公司通过再造工业社会本身的过程,以对抗工会、恶化工作条件。福特公司及其他公司很快将“自动化”描绘成一种将根本改变工业工作场所的革命性技术。自动化的定义模糊不清,但仍有许多美国人真心相信它会独立地带来丰裕,同时消灭无产阶级,并且用社会学家和著名公共知识分子丹尼尔·贝尔的话说,用高技能的白领“薪水阶层”取而代之。然而,各行业中的经理和工人所称的自动化往往只是导致工作条件恶化和加速工作,而非机器代替人工劳动。

AI就像早期的机械化形式一样,后者包括自20世纪50年代以来对白领办公室工作的计算机化机械化,其中雇主的目标是将技术含量较高的白领工作转变为更便宜的半技术性工作。在20世纪下半叶,计算机制造商和雇主推出电子数字计算机,意图降低文职人员的工资成本。他们用大量低薪的女性操作打孔机来取代熟练的秘书或办事员,这些操作员生产的打孔卡片被用于大型批处理计算机中。

结果是文职人员的数量增加了,而不是减少了,但新的工作比以前的工作更差。这些工作更加单调,工作节奏也加快了。在20世纪的最后四分之一里,雇主成功地说服中层管理人员自行承担文书工作,为他们配备了台式电脑以便自行完成打字、归档和通信工作,这些工作曾经由公司付费给文职人员完成。这种工作降级的方式在今天的白领工作中仍然很常见。

自动化话语的力量在于,它迎合了一种科技进步主义,这种进步主义即便在今天,仍吸引着左翼中的某些倾向,如所谓的加速主义者,他们认为工业化的发展本身会产生无产阶级革命的条件。

一些工会在自动化浪潮中做出妥协,如美国国际长途和仓库工人工会成功地在集装箱化的过程中争取到对老员工的退休福利,但大多数工会却未能抵抗自动化话语的影响。美国肉类包装工人联合会允许公司引进工具设备,期望获得退休福利和转岗机会,但最终自动化并未解决工人失业的问题,反而导致工会瓦解。类似的情况在现代肉类加工行业仍然存在。

文章认为,今天的“AI”已成为“自动化”的同义词,带有类似的、不切实际的技术乌托邦叙述。历史表明工人和组织者需要警惕这些过度的技术叙事,拒绝将其视为不可逆转的文明进程,而应将技术视为工作场所的一部分,工人有权对此进行民主治理。AI并非一种具体的革命性技术,它更多是一种用来削弱工人力量的技术叙事。文章建议工人拒绝盲目崇拜科技进步,以争取在工作场所中对技术的自主权,避免因“进步”之名牺牲劳动权益。

心理治疗机器人的悖论

当心理治疗资源稀缺的现实遭遇以Chatgpt为代表的聊天机器人的兴起,越来越多的人开始向人工智能寻求心理健康支持。当心理治疗机器人成为一门越来越大的生意,其中暗藏的危险也逐渐暴露出来。Jess McAllen近日在《异见者》(The Baffler)杂志发表了《机器里的治疗师》(The Therapist in the Machine)一文,结合自身经历对这一现象及其背后的隐忧进行了深入探究。

从新西兰搬到美国之后,McAllen有5年时间没有进行心理治疗。在她看来,心理治疗机器人是美国医疗选择悖论的化身。在新西兰,只要评估医生认为你确实有需要,公共心理健康系统就会指派一名心理医生,但在美国,她不得不从零开始自己寻找心理医生。她为此求助了Psychology Today、 Alma和 Headway等多家提供心理咨询服务的平台,结果却迷失在了令人眼花缭乱的搜索结果之中:你不仅要选择治疗师的学位、性别、外貌,还必须找到与自己匹配的流派、个性甚至政治立场,而无论怎么选择都要付出高昂的费用。

这些困难导致很多需要心理健康治疗的人无法得到专业帮助,这个所谓的治疗缺口就成为了商机。几年前,BetterHelp和Talkspace这两家科技公司开始为订阅用户提供和有执照的治疗师进行文字和视频聊天的服务。在积极投放广告和在社交网络上开展营销等策略之下,这种模式一度很受欢迎,两家公司的利润都达到了数百万美元。但最近,在线治疗的客户纷纷表示,他们在不同的治疗师之间辗转,这些治疗师似乎总是敷衍了事半途而废,而线上治疗师们则抱怨这些平台重数量轻质量,总是鼓励他们承担不可持续的工作量。现在,层出不穷的心理治疗机器人试图更进一步,通过完全抛弃人类来规避人类的缺陷。

McAllen指出,早在半个多世纪之前,研究人员就开始实验将人工智能应用于心理治疗领域。1966年,麻省理工学院教授约瑟夫·维泽鲍姆(Joseph Weizenbaum)创造了第一个聊天机器人ELIZA,可以被看作是今天的心理治疗机器人的原型。ELIZA以萧伯纳的戏剧《皮格马利翁》中的女主人公命名,通过人工智能的 “自然语言处理”分支进行操作。在1966年一篇概述其研究成果的论文中,维泽鲍姆讨论了病人与治疗师之间的投射,他写道:“举例来说,如果一个人告诉精神科医生‘我坐了很久的船’,而他的回答是‘跟我说说船吧’,我们不会认为他对船一无所知,而会认为他这样引导随后的对话是有某种目的的。”维泽鲍姆认为这种假设有利于治疗技术的发展,因为这意味着人工智能不需要掌握关于现实世界的明确信息。“ELIZA至少表明了制造和维持理解的假象是多么容易,那么具有可信度的判断的假象同样如此。这其中潜藏着某种危险。”

这种危险显然没能阻止当代科技公司乃至医疗保健公司不断推出新的改进版本的心理治疗聊天机器人来赚取利润。最近发布的一项研究表明,与写日记、心理教育小册子等传统的自主行为干预手段相比,心理治疗机器人并没有任何突出之处。这项研究的作者之一Todd Essig博士告诉McAllen,这些人工智能应用程序正在利用“科学”营销来实现及早套现。套现的具体形式包括提供熊猫造型的AI治疗师(Earkick,加入每年40美元的高级计划可以为“熊猫”佩戴饰品)、提供不同形象、性格和特长的AI治疗师供用户选择(Heartfelt Services,提供大胡子Paul、神话人物般的Serene和大大咧咧的Joy三种AI治疗师选项),等等。

大多数情况下,AI心理治疗工具的创造者都声称他们至少在增强而非取代传统的心理健康治疗,这些工具的一个显著优势是可以随叫随到。但McAllen指出,除了对治疗费用的考量,治疗师提供有限度的服务还有其他原因。太多断断续续的交流会削弱每次专门治疗的效果,而即时生成的、无边界的回复可能会强化病人寻求安慰的行为,从而导致他们在感到痛苦时忽视自己的自主性。但也有一些例外,布鲁克林综合心理服务机构的临床心理学家玛丽·梅尔卡多(Marie Mercado)认为,对于边缘性人格障碍的患者而言,知道在治疗时间之外理论上可以联系到自己的治疗师是有好处的,但他们需要提前和治疗师约定回应方案。她也承认,对于恐慌突然发作无法立刻联系到人类治疗师的人来说,人工智能或许能够提供帮助,但仍然伴随着过度介入的风险。

McAllen写道,尽管人们很容易认为人工智能心理治疗被过度炒作了,因此会像NFT或是元宇宙一样归于失败,但事实上,它已经在既有的医疗体系中获得了巨大的发展势头。英国国家医疗服务体系(NHS)采用了一款叫做Limbic的人工智能应用程序帮助筛查和评估寻求心理健康治疗的人。2021年,NHS参与了心理健康聊天机器人Wysa的研究。此后,该公司与 NHS 展开了一系列合作,其中包括即将推出的 “针对焦虑和情绪低落等常见心理健康问题”的人工智能 CBT项目。在美国,FDA已授予了Wysa公司开发的由人工智能主导的 “心理健康对话代理器”以“突破性设备称号”,表明其将与该公司合作加快监管流程。除了众多心理治疗聊天机器人之外,还有一些人工智能初创公司致力于将治疗师的部分工作自动化。例如由沃顿商学院校友运营的Marvix AI能够记录治疗过程并自动生成笔记,形成一个或者两三个诊断代码,号称每天可以为临床心理医生节省一到两个小时,每年为其增加4.3万美元的收入。在McAllen看来,将不断提高生产力的价值体系推广到心理治疗领域有着很大的局限性。把心理治疗视作可以量化的、因而可以甚至应该提高效率的过程,这种观点与经常发生倒退并且伴随着很多复杂性的心理疾病的混乱现实相悖离。

Heartfelt Services的创始人Gunnar J?rgen Viggósson是一名正在攻读心理学本科学位的计算机科学家,他承认人类治疗师在过去发挥的作用,但认为人工智能的优势恰恰在于它没有人性。Viggósson认为人们在和人工智能聊天时不会将自己的情感投射于其上,不会觉得它耐心有限或是担心它觉得自己怪异,但McAllen指出,事实上,受到严重精神疾病折磨的人——无论是精神错乱、狂躁症或强迫症发作还是创伤后应激障碍——很可能会将自我投射到聊天机器人上。这正是维泽鲍姆对ELIZA得出的结论之一。一个人在异常精神状态下的确可能用人工智能的回应促成甚至引导鲁莽的决定,从而为自己和他人带来严重后果。但在心理治疗机器人的创造者们看来,这些面临严峻精神危机的人似乎并不是这些人工智能应用程序的目标受众。

McAllen进一步指出,过去心理治疗针对的主要是患有严重精神疾病的人,直到20世纪90年代最后一波精神病患者去机构化浪潮之后,西方各国才开始开展减少对心理疾病的污名化的运动,由此带来了人们对于心理治疗的观念变化:现在人们普遍认为心理治疗是一种必要的大脑调整,所有人都应该参与其中——如果负担得起的话。到了2000年代的中后期,传递的信息又发生了微妙的变化,宣传活动,尤其是由政府资助的宣传活动开始把重点放在更好接受的心理健康问题和含混不清的心理健康概念之上。这些修辞促成了政策上的重大胜利,如2008年的《心理健康与成瘾法案》(Mental Health Parity and Addiction Act)和2010年的《平价医疗法案》(Affordable Care Act),这两项法案都要求医疗保险公司将心理健康治疗与其他医疗状况同等对待。其他相关的后果还包括健康产业的爆炸式发展、高产的自助书籍作者对精神类药物的妖魔化以及急症治疗快速被 “预防治疗”所取代。这些结构性变化制造出了真空,科技公司、私募基金和硅谷风投都试图瞄准这一领域推出产品。公共医疗保险和私人保险公司很可能都会转向人工智能心理治疗工具,从而以更低廉的价格扩大治疗范围。但心理治疗资源向一般心理问题倾斜的结果是 ,患有严重精神疾病的人想要获得亟需的治疗变得更困难了,这一人群需要的是更加复杂的心理治疗,这一缺口显然是人工智能无法填补的。

McAllen的切身体会是,只有找到一个和自己的状况相匹配的专业人士,才能得到真正的帮助。要做到这一点,哪怕不对美国的医疗体系进行根本性的改革,为想要接受治疗师培训的人提供奖学金或补贴就能大大缓解目前专业人士短缺的问题;提高报销比例,让治疗师放心和保险公司签约,也能够解决很多人因为费用高昂而对专业治疗望而却步的问题。试图用人工智能治疗师来填补缺口则不过是掩耳盗铃而已。

巧合的是,伯克利大学哲学教授Alva No?近日在《万古杂志》(Aeon)发表的《讨伐机器》(Rage Against the Machine)一文,恰好从哲学的视角解释了人工智能的局限性,其中对于人类语言的深刻分析充分说明了心理治疗机器人为什么难以取代人类心理治疗师。

在No?看来,图灵测试本身就具有误导性。其中至关重要的一点是,图灵在测试中用打字代替了说话,然而“言语是一种伴随呼吸的、热烈的运动,总是在语境当中,在需要、感受、欲望、投射、目标和限制的背景之下,与他人共同展开”。在他看来,与文字信息相比,言语和舞蹈的共同之处更多,如今我们在键盘的统治之下太过自如,以至于甚至没能注意到文本如何掩盖了语言的身体现实。

图灵测试中更为隐蔽的一个花招则是用游戏代替了有意义的人类交流。No?认为,对生活的游戏化是图灵最隐秘而令人不安的遗产之一。图灵对于游戏的理解是片面而扭曲的,从计算的角度来看,游戏是可理解的虚拟世界的透明结构,在其中规则限制了行动,价值判断和成败标准都是确定无疑的,但真正的游戏同时也是竞赛,是我们接受考验的试验场,我们的局限性会被暴露出来,我们的力量和脆弱都会一并显现。一个参加国际象棋比赛的孩子可能会极度焦虑以至于感到恶心,这种本能表达并不是偶然的附带现象,也不是对游戏而言没有本质价值的外在表现,而是游戏的内在组成部分。也就是说,人类不仅仅是遵循规则或规范的行动者,我们的行动总是(至少是潜在的)冲突场所。

就语言来说,我们说话时不会盲目地遵循规则,规则本身就是可供争夺和可以争论的。我们从一开始就不得不面对交谈的困难,即使在实事求是且没有过多压力的多数情况下,我们也很容易误解对方。在交谈中,质疑用词,要求重新表述、重复和修正,几乎是不可避免的。也就是说,交谈从一开始就包括了对交谈的反思和批评,我们在使用语言的同时也在改变语言,语言是一个捕捉和释放、参与和批评的场所,是一个过程。而这显然是机器模拟无法做到的。“人类不是训练出来的。我们拥有经验。我们学习。例如,对我们来说,学习一门语言不是学习生成‘下一个词’,而是学着工作、玩耍、吃饭、爱、调情、跳舞、打架、祈祷、操纵、谈判、假装、发明和思考。最关键的是,我们不仅仅是吸收学到的东西然后不断继续;我们总是抵抗。我们的价值判断总是无定论的。我们不仅仅是词语的生成器。我们是意义的创造者。”

热门文章排行