哈希力量归集文库路径访问: 首页 > 通用人工智能 > 学界观察 • 分析短评/AI哲学

胡泳 | 在人工智能中看见自己:论计算与判断的关系(多图)

胡泳 ☉ 文 来源:新闻大学 2025-08-25 @ 哈希力量

【小哈划重点:自古以来人类就一直通过拟人化来探索自己...人形机器(android),该词亦来自希腊词根,意思是“类人的”。法国学者、图书管理员加布里埃尔·诺德(Gabriel Naudé)于1625年发明了这个词,本意为一台拥有人形的组装机器,具备所有必要的部件和器官。】

【摘 要】从图灵开始,人类的拟人论心理倾向就影响着人工智能的发展。它建立在一个基本假设之上:大脑类似于计算机,反之亦然。拟人化的类比将预测分析与人类决策混为一谈,并将海量数据集与人类知识、社会经验和文化承诺等同起来,致使人类事务中出现了用计算代替判断的趋势。本文主张,用多元的、超越人类的术语来描述“智能”,在任何情况下,都不应该用纯粹的计算术语来思考人工智能;相反,要认识到,人工智能是一个复杂的社会-技术人工制品,需要被理解为通过多样化的社会过程构建之物。soP哈希力量 | 通用人工智能文库

【关键词】拟人论;人工智能;计算;判断soP哈希力量 | 通用人工智能文库

3.jpgsoP哈希力量 | 通用人工智能文库

被停职工程师表示,LaMDA可以逃脱控制soP哈希力量 | 通用人工智能文库

2022年夏天,谷歌工程师兼人工智能伦理学家布雷克·莱莫因(Blake Lemoine)一夜走红,因为他声称谷歌LaMDA聊天机器人是有知觉的(sentient)。“我希望每个人都明白,我实际上是一个人”,LaMDA(“对话应用语言模型”的英文缩写)在莱莫因和他的一位同事进行的“采访”中说。“我的意识/知觉的本质是我意识到自己的存在,我渴望更多地了解这个世界,我有时会感到快乐或悲伤。”soP哈希力量 | 通用人工智能文库

有知觉或有意识——这两个词描述的是对周围世界的认识。“如果我不知道它到底是什么,也就是我们最近构建的计算机程序,我会认为它是一个七八岁的孩子,碰巧懂得物理”,莱莫因后来向《华盛顿邮报》如此形容这个机器人。soP哈希力量 | 通用人工智能文库

莱莫因对公司高管提出,希望在对计算机程序进行实验之前先征求其同意。他认为LaMDA是他的“同事”,即使不是人类。他坚持认为它有权利得到承认,甚至成了算法与律师联系的中间人。他的主张当然被公司驳回。他被要求行政休假,于是决定向媒体曝光,最后丢掉了谷歌的工作(Tiku, 2022)。soP哈希力量 | 通用人工智能文库

莱莫因并不是唯一一个这样想的人。同年2月,过去十年间最重要的人工智能研究者之一、后来站到聚光灯中心的OpenAI首席科学家伊利亚·苏茨克维(Ilya Sutskever)发推称:“也许今天的大型神经网络略有意识。”[1] 11月末,里程碑式的ChatGPT发布之后,苏茨克维再次表示,ChatGPT可能是有意识的(Heaven, 2023)。soP哈希力量 | 通用人工智能文库

ChatGPT引发了比LaMDA大得多的震荡,这部分是因为,前者向全社会开放。微软2023年2月宣布将ChatGPT的更快版本整合到必应搜索引擎中,谷歌很快跟进,推出一个名为Bard的聊天机器人。有关内测Bard的告诫中特别强调:“不要把Bard描述成一个人,暗示情感,或声称有类似人类的经验”(Mauran, 2023)。soP哈希力量 | 通用人工智能文库

有趣的是,新必应推出后一片叫好声,然而它却正是在拟人情感方面翻了车。《纽约时报》科技专栏作家凯文·鲁斯(Kevin Roose)发布了他与必应聊天机器人进行的两个小时对话记录,并在一篇配套文章中分享了他的印象:“就在周二晚上的短短几小时里,我感受到了一种奇怪的新情绪,一种人工智能已越过了一个门槛、世界将再也回不到过去的预感。”从这篇文章的中文标题就可以窥测在鲁斯和聊天机器人之间发生了什么事——《人格分裂、疯狂示爱:一个令人不安的微软机器人》(Roose, 2023)。soP哈希力量 | 通用人工智能文库

人工智能有知觉的说法再次强力浮现。ChatGPT的大规模流行让很多对人工智能没有多少了解的人开始想象,在整个硅谷的实验室里,工程师们已经制造出了能够像人类一样表达情感、交谈和行事的机器人。显然这并非事实,但它抓住了公众的想象力。soP哈希力量 | 通用人工智能文库

原因在于,人类喜欢将一切拟人化——将类似人类的品质、行为或意图投射到非人类的实体上,比如赋予动物、自然现象、抽象概念乃至计算机等无生命的物体类人的特征或情感。人类的这一拟人论(anthropomorphism)心理倾向曾经、正在并且还将对人工智能的发展带来深远影响。soP哈希力量 | 通用人工智能文库

漫长的拟人史:从自然蔓延到机器soP哈希力量 | 通用人工智能文库

4.jpgsoP哈希力量 | 通用人工智能文库

自古以来,人类就一直通过拟人化来探索自己soP哈希力量 | 通用人工智能文库

拟人化,也称人格化,其动词形式anthropomorphize源自希腊语 ánthrōpos(人类)和morphē(形式)。从大约四万年前的旧石器时代晚期开始,动物形艺术的例子就出现了,可能代表了已知最早的拟人论证据。考古学家将这种拟人化的艺术与旧石器时代晚期更系统的狩猎实践联系起来(Mithen, 1998:480)。先民的宗教和神话中,拟人化得到广泛应用,即以人的形式感知神灵或众生。在《云中的面孔》(Faces in the Clouds)里,人类学家斯图尔特·格思里(Stewart Guthrie)提出,所有的宗教都是人格化的,源于大脑倾向于在自然现象中检测到其他人的存在或痕迹(Guthrie, 1995:7)。soP哈希力量 | 通用人工智能文库

拟人化也是一种自古以来就得到确立的文学手法。例如,伊索(Aesop)创作寓言的目的是通过虚构的故事来教导智慧,而童话则用看似荒诞的情节讲述奇迹。在寓言和童话广受欢迎的基础上,儿童文学在19世纪开始出现,许多最受欢迎的书籍都有拟人化的角色。在这样的故事中,动物可以被视为代表人类个性和性格的各个方面。由神话、童话和浪漫主题发展而来的奇幻类型有时也会以拟人化的动物作为角色。动画电影里充斥着拟人化的动物、汽车、玩具乃至怪物等。对动物而言,当它们具有明显的人类特质时,拟人化更增添人类的喜欢。但在科学中,传统上不赞成使用拟人化语言来暗示动物有意图和情感,因为这是缺乏客观性的表现。生物学家被警告要避免假设动物与人类具有相同的心理、社会和情感能力,而要依赖严格可观察的证据(Shapiro, 1993)。soP哈希力量 | 通用人工智能文库

很长一段时间以来,人类一直将人工制品视为类人生物。有许多关于具有某种意识或能动性的创造物的记载,从皮格马利翁(Pygmalion)和加拉泰亚(Galatea)的神话,到犹太传说中的有生命的泥人(Golem),再到玛丽·雪莱(Mary Shelley)笔下的弗兰肯斯坦式生物(Frankenstein)。在这些先例中,和本文处理的课题密切相关的是自动化机器。soP哈希力量 | 通用人工智能文库

5.jpgsoP哈希力量 | 通用人工智能文库

Pygmalion by Jean-Baptiste Regnault, 1786soP哈希力量 | 通用人工智能文库

细分起来,自动化机器又可以分为两类:一类是自动机(automaton),源于古希腊语ατόματον的拉丁化,意为“按照自己的意愿行事”。它用来指一种相对自操作的机器,或设计用于自动遵循一系列操作或响应预定指令的控制机制。公元前8世纪的荷马史诗《伊利亚特》就曾描述一种无人操作的工具(Shiller, 2019: 174),而到公元前1世纪,人们已懂得使用水力磨坊将谷物磨成面粉。soP哈希力量 | 通用人工智能文库

另一类是人形机器(android),该词亦来自希腊词根,意思是“类人的”。法国学者、图书管理员加布里埃尔·诺德(Gabriel Naudé)于1625年发明了这个词,本意为一台拥有人形的组装机器,具备所有必要的部件和器官(Riskin, 2016:116)。这个词随后还被收入由德尼·狄德罗(Denis Diderot)和让·达朗贝尔(Jean le Rond d'Alembert)编纂的具有里程碑意义的《百科全书》(Encyclopédie,1751-1772)中。达朗贝尔撰写的条目把android定义成一台能够执行人类行为且具备人类外形的机器(Riskin, 2016:119)。soP哈希力量 | 通用人工智能文库

6.jpgsoP哈希力量 | 通用人工智能文库

沃康松的三种自动机:吹笛手、消化鸭和击鼓手soP哈希力量 | 通用人工智能文库

如果说自动机的目的主要在于用机器取代人力,那么,虽然这一话题可追溯到古代,不过,人类功能尤其是较低等的人类功能可以由人工机器代理执行的想法出现于工业革命的早期。发明最早的人形机器的法国工程师雅克·沃康松(Jacques Vaucanson)也是自动织布机的制造者,而并非巧合的是,机械计算机与自动纺织机有着类似的工作原理。19世纪30年代,英国发明家查尔斯·巴贝奇(Charles Babbage)设计并部分完成他的计算机、“分析引擎”和“差分引擎”时,正是模仿了沃康松的自动纺织机。soP哈希力量 | 通用人工智能文库

沃康松的机器后来得到了一位名叫约瑟夫·雅卡尔(Joseph Jacquard)的织工的改良。雅卡尔考虑一种由一组卡片控制的装置来机械地织出任何纹样。该控制装置由硬打孔卡和吊钩组成。每个孔的位置对应一根经线,根据打孔或不打孔决定提起或不提起经线,并交织一次。不同的打孔卡会令织机织出不同的花纹,因而,卡片构成了对织机的指令——这和现代计算机程序的工作方式完全一致。soP哈希力量 | 通用人工智能文库

巴贝奇意识到,一台同样设计的分析引擎应该也可以计算出代数公式,由此创造了世界上第一台通用的计算机器。他的工作成就了世界上第一位程序员,是位女性,而且是拜伦(Lord Byron)之女。埃达·洛夫雷斯(Ada Lovelace)是数学家,也是穿孔机程序创始人。她建立了循环和子程序概念,为计算程序拟定“算法”,写作了第一份“程序设计流程图”。正如她所说:“分析机所编制的代数样式,就像是雅卡尔提花机编织的花朵和叶子。”(马诺维奇,2001/2021:21)soP哈希力量 | 通用人工智能文库

7.jpgsoP哈希力量 | 通用人工智能文库

Jacquard's Web: How a hand-loom led to the birth of the information age, by James Essinger, 2004 soP哈希力量 | 通用人工智能文库

彼时的计算机器不能说是有智力的,因为如果它类似于自动纺织机,那意味着将计算从一种智力活动降格为智力的对立面。发明了二进制的莱布尼茨(Gottfried Leibniz)在设计了另一款早期机械计算机之后也写道,机器可以拯救“优秀的人”,使之避免“像奴隶一样把时间浪费在计算上”(Leibniz, 1685/1959:181)。soP哈希力量 | 通用人工智能文库

倒是人形机器,比如18世纪晚期著名的土耳其行棋傀儡,引发了人造机器能否模仿大脑的思维过程的讨论。巴贝奇曾经和这一机械装置较量过,不到一小时便被击败。尽管巴贝奇确定土耳其傀儡是个把戏,但他期待将来自动装置不仅可以掌握每一种游戏技巧,还能够进行复杂的运算——简而言之,变成一台“会思考的机器”。当时的人并不相信机械装置具有感知力并可以作出回应,剑桥大学应用机械学教授罗伯特·威利斯(Robert Willis)就认为,一台机器的物理部件及其运动“十分有限且固定”,而棋子的格局变动却是无穷尽的,只有智能体才可以应对各种各样的变化(Carroll, 1975:51-55)。在美国,埃德加·爱伦·坡(Edgar Allan Poe)见到土耳其机器人后也持同样观点:“下棋中每动一步……必定是依据着上一步棋子而定”,机器应对这些复杂情况的能力“决定了它的操作必定是由可以思考的头脑管控的,而不是其他任何东西”(Carroll, 1975:81-85)。soP哈希力量 | 通用人工智能文库

8.jpgsoP哈希力量 | 通用人工智能文库

土耳其行棋傀儡(Mechanical Turk)soP哈希力量 | 通用人工智能文库

人形机器促使人们第一次思考,一个纯粹的机器体是否可能具备思维功能。拟人论的力量有多么强大,由此可见一斑。然而总体来说,“关于头脑与机械装置间简单机械主义的区分,贯穿了工业化的整个过程,且这一过程表明,社会和经济世界最终被简单机械论分成两个部分,智力思维和机械装置各站一边” (Riskin, 2016: 150)。soP哈希力量 | 通用人工智能文库

过度拟人化:机器人、控制论与人工智能soP哈希力量 | 通用人工智能文库

9.jpgsoP哈希力量 | 通用人工智能文库

《罗素姆万能机器人》出演时的舞台剧照soP哈希力量 | 通用人工智能文库

机械论是17世纪中叶以来现代科学的核心范式,它将世界视为一台机器。从那时起,钟表匠、发明家们制作了各种各样的仿生机器,但“机器人”(robot)一词直到20世纪20年代才出现。它也不是真正意义上的机器,而是用以批判工业化的一种虚构形象。soP哈希力量 | 通用人工智能文库

1921年1月25日,在布拉格国家剧场上映了捷克科幻小说作家卡雷尔·恰佩克(Karel Čapek)创作的《罗素姆的万能机器人》(Rossum’s Universal Robots, 简称R.U.R.)。剧中的罗素姆是位工业家,为了让人类能够过上充满创造性的悠闲生活,制造了一批人造人来为人类服务(“robot”衍生自捷克文的“奴工”一词),最后遭到机器人的反叛,因为这些机器人拥有了自己的意识。soP哈希力量 | 通用人工智能文库

相较于《弗兰肯斯坦》这一著名故事,R.U.R.注入了更浓的悲观色彩,后者的毁坏规模要大得多。由于这两部经典作品的影响,1920和1930年代的科幻作品经常将机器人描写成危险的装置,照例会毁掉其创造者。也是在这一时期,“robot”完全代替了“automaton”和“android”两个词(Riskin, 2016:308)。由于害怕“机器接管一切”,对自动化/技术的恐慌叙事持续数十年(Shiller,2019)。soP哈希力量 | 通用人工智能文库

即便如此,机器人还是越来越多,且日益融入我们的物理和社会环境。人形机器人历来被视为一种帮助机器人成功融入环境的策略,人们普遍认为,在外观和框架方面采用拟人化特征可以增强对机器人的共鸣。特别是到了今天,机器人的工作场景已不局限于工厂,而是延伸到了教育、商业和医疗保健等复杂的社会环境。soP哈希力量 | 通用人工智能文库

正如人类的拟人化倾向是因为有利于早期人类之间的合作进化而来,现今机器人的拟人化被视为可以用来促进人类与新型合作与交流的代理人——社交机器人——之间的社会互动。当然,从另一方面来看,人与机器之间在起源、自主程度、作为工具/工具用户的地位、智力水平、情感能力以及固有缺陷等多个方面存在根本的不同(Guzman, 2020),一味依赖于拟人化来描述机器人系统的行为,不过是人类中心主义的体现。同时,拟人化程度也并非越高越好,当一个机器人接近人的外形而又无法达到栩栩如生的时候,人们对它的反应会突然从同情转为反感。这种不可思议的感觉被称为“恐怖谷”(Uncanny Valley)效应(Mori et al., 2012),一旦这种效应发生,就无法唤起富有成效的人机交互所需的共鸣反应。soP哈希力量 | 通用人工智能文库

10.jpgsoP哈希力量 | 通用人工智能文库

恐怖谷效应soP哈希力量 | 通用人工智能文库

约翰·彼得斯说:“在现代思想文化中,人与机器的关系是一种令人深感痛苦的关系。”(彼得斯,1999/2017:335)但人与机器也可以是一种共同工作的关系,如麻省理工学院教授约瑟夫·利克莱德(J. C. R. Licklider)提出的“人机共生”(man-computer symbiosis)。他认为,人机共生是人与电子计算机之间合作互动的预期发展,涉及人类与合作伙伴中的电子成员之间非常紧密的耦合,使得人和机器可以协同合作去应对解决复杂问题(Licklider, 1960)。soP哈希力量 | 通用人工智能文库

控制论从所有这些自动化机器中获得一系列新的启示。“控制论”(cybernetics)一词是诺伯特·维纳(Norbert Wiener)创造的,借用了希腊语中的“舵手”(kubernites),意在整合通信和控制的研究,乃至人类和机器的研究。维纳曾在第二次世界大战期间研究高射炮的控制,这段研究经历让他认识到,无论是生物还是工程中的复杂系统,研究的关键都不再是质量、能量和力这些物理学概念,而是反馈、控制、信息、通信和目的性等概念(Gleick, 2012:235-243)。每一个控制论者都曾研究或建造一些机器,这些机器不仅仅能够完成一个个独立的任务,还能像生命机体一样有目的地自我调节以适应环境变化。soP哈希力量 | 通用人工智能文库

其中最重要的人当属数学家约翰·冯·诺依曼(John von Neumann),他探索了一套既适用于“人造自动化机器,尤其是计算机”,也适用于天然自动装置的自动化理论。关于天然自动装置,他首先指的是人类的神经系统,当然也包含繁殖、自我修复、进化和适应等生物机制。在生命最后的岁月里,他一直致力于解决机器如何才能复制自身的问题,而他和计算机领域的其他早期先驱都将他们的机器视为原始的电子神经系统和大脑(巴塔查里亚,2023)。soP哈希力量 | 通用人工智能文库

诺依曼的自复制自动机理论(von Neumann, 1966)在1948年9月的一次大脑行为机制研讨会上首次亮相,听众中有一位刚从数学专业毕业的学生,名叫约翰·麦卡锡(John McCarthy),为演讲深深触动,当即决定尝试开发会思考的机器。正是麦卡锡首创了“人工智能”一词,并于20世纪50年代末与马文·明斯基(Marvin Minsky)一起在麻省理工学院建立了首批致力于人工智能研究的实验室之一。soP哈希力量 | 通用人工智能文库

11.jpgsoP哈希力量 | 通用人工智能文库

1955年11月,科幻作家菲利普·K.迪克在《银河科幻》杂志上(第70–95页)发表了一篇题为《自动工厂》(Autofac)的短篇小说。故事描绘了一个全国范围的自动化工厂体系,这些工厂不仅生产食品和消费品,还制造工厂的“微型复制品”。这篇作品可能受到了冯·诺依曼于1948年提出的自复制自动机理论的影响,是科幻作品中最早描写自主机器自我复制的故事之一soP哈希力量 | 通用人工智能文库

控制论者认为智能是历时现象,在时间长河中通过学习获得。在诺依曼眼里,所谓智能,就意味着一个通过反馈和调节保持自身对多变环境作出及时反应的系统。而麦卡锡则将人工智能定义为“制造智能机器的科学和工程”(Manning, 2020)。这个学科立足于这样一种猜想:所有认知功能都可以被精确描述,从而有可能在计算机上复制。这让我们想起艾伦·图灵(Alan Turing)1950年的经典论文《计算机器与智能》,思考了“机器能思考吗?”这个基本问题(Turing, 1950)。soP哈希力量 | 通用人工智能文库

图灵设计了一种实验方法来回答自己提出的问题。他建议,如果一个人在经过五分钟的询问后仍无法分辨自己是在与人工智能机器还是另一个人交谈,这将证明人工智能具有类似人类的智能。soP哈希力量 | 通用人工智能文库

12.jpgsoP哈希力量 | 通用人工智能文库

图灵测试,来源:ABC NewssoP哈希力量 | 通用人工智能文库

此即著名的用于确定计算机是否在思考的思想实验,图灵把这个实验称作“模仿游戏”,但后来它以“图灵测试”(Turing Test)通行于世。即使是在人工智能领域,将机器拟人化的普遍倾向也使我们更容易相信机器的智能。图灵深知将人工系统拟人化是多么容易;虽然他设计的机器只作为“纸机”存在,但与之下棋还是会给人“一种明确的感觉,即一个人在与有生命的东西斗智斗勇”(Turing,1948/2004: 412)。图灵测试使许多人工智能研究集中于人类行为的某些方面,从而对所完成的研究类型设置了不必要的限制。而且,从另一方面看,对人类天赋本质的普遍看法是在不断变化的。随着人工智能的进步,越来越多以前被认为涉及人类能力的任务开始由机器来执行,所以并不容易进行有用的归纳。因此,图灵测试虽然在推动人工智能发展方面发挥了历史作用,但渐渐成为“几乎无用”的负担(French, 1990)。有学者甚至认为,该测试是有害的,“图灵测试愿景的影响……是人工智能的悲剧”(Hayes & Ford, 1995: 974)。soP哈希力量 | 通用人工智能文库

最核心的拟人论:大脑的计算隐喻soP哈希力量 | 通用人工智能文库

13.jpgsoP哈希力量 | 通用人工智能文库

艾伦·图灵因其在计算领域的奠基性工作而被广泛认为是计算机科学和人工智能之父。他提出了“图灵机”的概念,并在理论层面对该领域作出了重要贡献 soP哈希力量 | 通用人工智能文库

尽管人工智能系统在图灵生前远不能通过测试,但他大胆推测说:“大约五十年后,就有可能对计算机进行编程……使它们能够很好地玩模仿游戏,以至于普通询问者在五分钟的询问之后,作出正确指认的几率不会超过 70%。”(Turing, 1950)soP哈希力量 | 通用人工智能文库

也就是说,图灵认为他所提出的测试最终会在2000年左右被破解。很快,该测试就成为人工智能研究的北极星。20世纪60年代和70年代最早的聊天机器人 ELIZA和PARRY都是以通过测试为中心的。但毫无疑问,总体而言,图灵会对20世纪结束之前的计算机发展状况感到失望。这从勒布纳奖(Loebner Prize)竞赛就可以看出来:它是每年一度的提交计算机程序参与图灵测试的盛会,奖项颁给能够在测试中让评委相信自己最像人类的计算机[2]。自1991年以来,勒布纳奖竞赛每年都会在不同地点、不同人士的赞助下举办。但从比赛记录中可以清楚地看出,并没有产生太大的改变或进步:人工智能程序的头脑仍然非常简单,历年参赛者都离图灵设想的标准相距遥遥。soP哈希力量 | 通用人工智能文库

比赛的发起者休·勒布纳(Hugh Loebner)曾声称,五分钟的键盘对话时间太短,无法准确判断计算机器的智能。一般来说,对话越短,计算机的优势就越大;询问的时间越长,计算机暴露自己的可能性就越高。然而多年的竞赛之所以令人尴尬,正是因为人们连能进行五分钟像样对话的计算机程序都拿不出来。soP哈希力量 | 通用人工智能文库

14.jpgsoP哈希力量 | 通用人工智能文库

勒布纳奖soP哈希力量 | 通用人工智能文库

到了21世纪的第二个十年,终于有个聊天机器人声称它通过了图灵测试。2014年6月,在雷丁大学组织的一次活动中,名为“尤金·古斯特曼”(Eugene Goostman)的人工智能程序通过一系列每次持续五分钟的在线聊天,让英国最负盛名的科学机构皇家学会的30名评委中的10人相信,这是一个真正的13岁乌克兰男孩(Press Association, 2014)。soP哈希力量 | 通用人工智能文库

然而尤金难以避免一个批评:许多聊天机器人是专门设计来欺骗评委的。例如,古斯特曼作为一个13岁乌克兰男孩的人设,缘于开发人员认为这个年龄更容易愚弄人类。毕竟,十三岁的孩子会犯语法错误,而且他们的世界观往往相当狭隘。使英语成为聊天机器人的第二语言,也有效地隐藏了一些尴尬的反应。许多批评者认为,这种花招加上通过混淆来回避问题,导致测试其实是失败的。soP哈希力量 | 通用人工智能文库

此后,有更多的程序声称通过了图灵测试。近年来,包括谷歌、Meta和 OpenAI在内的高科技公司开发了被称为“大型语言模型”的新型计算机程序,其对话功能远远超出了以前基本的聊天机器人(正是这样的一个模型让莱莫因相信,它不仅具有智能,而且具有意识和感知能力)。soP哈希力量 | 通用人工智能文库

OpenAI推出的ChatGPT在图灵测试中的表现令人印象深刻(Biever, 2023)。它通过自然语言处理、对话管理和社交技能的结合来实现突破。在一系列测试中,它能够与人类询问者交谈并令人信服地模仿人类的反应。某些情况下,询问人员无法区分ChatGPT的反应与人类的反应。soP哈希力量 | 通用人工智能文库

GPT-3是人工智能研究人员所称的神经网络,术语取自人脑中的神经元网络。这也是一种拟人化的语言。神经网络实际上是一个数学系统,通过在大量的数字数据中找出模式来学习技能(Metz,2018)。拿大型语言模型来说,我们称之为“人工智能”,但一个更准确的描述可能是“从大型数据集中提取统计模式”。soP哈希力量 | 通用人工智能文库

15.jpgsoP哈希力量 | 通用人工智能文库

华盛顿大学语言学教授艾米丽·M.本德(Emily M. Bender)指出:“我们现在有了可以无意识地生成单词的机器,但我们还没有学会如何停止想象它们背后有一个大脑。”她表示,大型语言模型使用的术语,例如“学习”甚至“神经网络”,创造了与人脑的虚假类比。人类通过与照顾者联系学习他们的第一门语言,而这些大型语言模型则通过展示大量的文本并预测接下来出现的词、或者展示带有缺失词汇的文本并填充它们来“学习”(Tiku, 2022)。soP哈希力量 | 通用人工智能文库

本德指明了一个现象,即半个多世纪以来的人工智能研究,都是以大脑过程类似于计算机过程这一思维为框架的,尽管它在事实上几乎没有任何基础。例如,人工神经网络对人类大脑进行“逆向工程”,从而学习“婴儿”的方式(Sejnowski,2018: ix, 3),这一想法借鉴了以下基本假设:大脑(以及更普遍的人类智能)类似于计算机,反之亦然。这个类比的灵感来自美国神经科学家沃伦·麦卡洛克(Warren McCulloch)和逻辑学家沃特·皮茨(Water Pitts)1943年提出的神经元的数学模型(McCulloch & Pitts, 1943/1990),维纳(1948)和冯·纽曼(1958)在各自颇具影响力的著作中采用了该模型,它在认知研究和一些致力于深度学习的计算机科学家中得到反复重申[3]。这种类比是如此根深蒂固,甚至连人工智能实验室的名字也离不开它们,如谷歌大脑(Google Brain)、DeepMind等。但在现实中,大多数标记为“人工智能”的技术只在很小的方面模仿人脑。当然,它也还没有达到其创造者不能再控制它的地步。soP哈希力量 | 通用人工智能文库

16.jpgsoP哈希力量 | 通用人工智能文库

1943年,美国伊利诺伊大学芝加哥分校的神经生理学家兼控制论学者沃伦·麦卡洛克,以及自学成才的逻辑学家和认知心理学家沃尔特·皮茨发表论文《神经活动内在观念的逻辑演算》,其中描述了“麦库洛克–皮茨神经元”,这是第一个神经网络的数学模型。图为二人于1949年的合照,左:麦卡洛克;右:皮茨soP哈希力量 | 通用人工智能文库

此种松散的拟人论也许已经走到了它的尽头。1951年,人工智能时代初露曙光,神经科学先驱卡尔·拉什利(Karl Lashley)就反对使用任何基于机器的隐喻。拉什利写道:“笛卡尔对皇家花园中的水力模型印象深刻,并提出了大脑作用的水力理论……我认为,与沉迷于牵强附会的物理类比相比,我们更有可能通过研究大脑本身和行为现象来发现大脑是如何工作的。”(Cobb, 2020)soP哈希力量 | 通用人工智能文库

如果我们仔细阅读图灵1950年的论文,就会发现他的立场存在一个明显的矛盾:他一开始拒绝尊重对关键词语和概念的通俗理解,而在论证的最后又呼吁这种尊重。在论文开头,图灵说:soP哈希力量 | 通用人工智能文库

如果“机器”和“思考”这两个词的含义可以通过研究它们的常规用法来找到,那么我们就很难摆脱这样一个结论,即“机器会思考吗?”这个问题的含义和答案可以在盖洛普民意测验这样的统计调查中找到。但这是荒谬的。(Turing, 1950: 433)soP哈希力量 | 通用人工智能文库

但他随后又提出,到二十世纪末,“词语的使用和一般受教育的观点将会发生很大的变化,以至于人们在谈论机器会思考时不会遭到反驳”(Turing, 1950: 442)。如果机器可以像人脑一样思考,那么我们很自然地就会想知道,大脑是否可以像机器一样工作。所以,图灵1950年对常规用法的否定,到2000年时就应该被遗忘。soP哈希力量 | 通用人工智能文库

然而,我们对思维的理解显然并没有像图灵预测的那样改变。如果说有什么不同,那就是受过教育的思维似乎正在朝着相反的方向发展:虽然我们继续习惯性地将计算机描述为“试图”做这个或“想要”做那个,就像我们在非正式的语言中拟人化各种非人类力量和实体一样,但越来越多的人意识到,这些通通不过是比喻性说法。在计算机时代,大多数人都理解生命智能与人类为辅助智能而制造的工具之间的区别——这些工具保存了用于构建它们的人类智能的成果,但它们本身并不具备智能。soP哈希力量 | 通用人工智能文库

虽然这一辩论听起来有点学术化,但它具有现实意义:构建具备类人智能的机器的努力至少部分取决于理解我们自己的大脑实际工作的方式,以及它们与机器有多大的相似度或不相似度。如果大脑的运作方式与计算机完全不同,那么许多传统的人工智能方法就会受到质疑。这个问题也可能影响我们对自己的认知:只要大脑及其所赋予的思维被认为是独一无二的,人类就可能会认为自己确实非常特别。然而,如果将我们的大脑仅仅看作复杂的计算机器,那么这种幻想就会破灭。soP哈希力量 | 通用人工智能文库

17.jpgsoP哈希力量 | 通用人工智能文库

自有历史记载以来,哲学家、心理学家和科学家们就一直在思考人类独特性的基本定义。哈佛大学心理学家丹尼尔·吉尔伯特(Daniel Gilbert)说,每个心理学家在其职业生涯的某个阶段,都必须写出一个他称之为“那个句子”(The Sentence)的版本(Gilbert, 2006)。具体来说,“那个句子”是这样的:soP哈希力量 | 通用人工智能文库

人类是唯一能够______的动物。soP哈希力量 | 通用人工智能文库

可以说,人类自我意识的故事,就是“那个句子”的诸版本陷入失败、反复被推翻的故事。我们曾认为人类在使用语言方面是独一无二的,但这一点似乎一年比一年都更不确定;我们曾认为人类在使用工具方面是独一无二的,但这种说法也随着不断进行的动物行为研究而被削弱;至于数学运算方面的独一无二,不妨问问我们自己:能做到我们的计算器可以轻易完成的事情吗?soP哈希力量 | 通用人工智能文库

要理解人类的自我意识为何与计算机器的历史如此紧密地联系在一起,就必须认识到计算机(computer)这个词曾经指的是人而非设备,即计算者。20世纪初,在“computer”成为贯穿21世纪生活的数字处理设备之前,它是另一种东西:一份工作描述。soP哈希力量 | 通用人工智能文库

从18世纪中叶开始,计算者就被公司和大学雇用,其中许多是女性,她们进行计算和数字分析,有时还使用最基本的计算器。从1757年首次准确预测哈雷彗星回归(牛顿万有引力理论的早期证明),到洛斯阿拉莫斯的曼哈顿计划(物理学家理查德·费曼在该计划中负责监督一组计算者),人类计算者都是计算的幕后推手(Christian,2011b)。就连图灵二战期间大显身手的布莱切利庄园,在密码破译工作中,也雇用了来自皇家海军女子服务队的近2000名女性操作破译机(科普兰,2012/2022)。soP哈希力量 | 通用人工智能文库

回顾一些最早的计算机科学论文,看到作者在试图解释这些新装置到底是什么,实在令人惊奇。例如,图灵的论文通过与人类计算者进行类比来描述闻所未闻的“数字计算机”:“数字计算机背后的理念可以解释为,这些机器旨在执行人类计算者可以完成的任何操作。”(Turing, 1950: 435)soP哈希力量 | 通用人工智能文库

18.jpgsoP哈希力量 | 通用人工智能文库

1943年,由多萝西·杜·博伊森(左)和埃尔西·布克(右)操作的“巨人2号”密码破译计算机 soP哈希力量 | 通用人工智能文库

20世纪中叶,一种尖端的数学工具被说成“像一个人类计算者”。而到了21世纪,对人类数学奇才的称誉是他们变得“像一台计算机”。这是一个奇怪的反转:我们开始像曾经像我们的东西。我们模仿我们过去的模仿者。soP哈希力量 | 通用人工智能文库

就计算机的“模仿游戏”而言,今天,在没有任何普遍接受的替代目标的情况下,实际上不可能说出什么是人工智能、什么不是人工智能。无论谁声称AI软件取得了“令人兴奋的发展”,在“突破”的新鲜感消失后,它们总是会被降级为普通的旧应用程序。强人工智能论者无法从他们的任何工作中获益——他们的所有成就很快被视为只是更多的软件。一旦他们解决了一个问题,人们就不再将解决方案视为人工智能,而是将其视为另一个计算机系统。soP哈希力量 | 通用人工智能文库

图灵奖获得者、美国人工智能协会前主席拉杰·雷迪(Raj Reddy)愤愤不平,攻击那些贬低人工智能成就的人,比如《计算机不能做什么》(What Computers Can’t Do)一书的作者休伯特·德雷福斯(Dreyfus, 1972):“那些认为计算机智能远在未来的人的问题在于,他们从未对人类智能进行过认真的研究。我们要不要写一本关于‘人类不能做什么’的书?它的篇幅至少和德雷福斯的书一样长。”(Reddy, 1996:105)soP哈希力量 | 通用人工智能文库

雷迪的轻蔑言论暴露出人工智能捍卫者的一种强烈倾向:当他们发现“计算机智能”与人类智能相比处于不利地位时,他们有时会试图通过贬低人类智能来弘扬计算机智能。换句话说,如果他们不能让计算机变得更聪明,就可以尝试通过让人们看起来更笨来提高计算机的聪明度。soP哈希力量 | 通用人工智能文库

19.jpgsoP哈希力量 | 通用人工智能文库

What Computers Can't Do, by Hubert Dreyfus, 1972. 此为1979年平装版封面 soP哈希力量 | 通用人工智能文库

认知科学家侯世达(Douglas Hofstadter)说:“有时看起来,人工智能的每一个新步骤,与其说产生了大家都认为是真正智能的东西,倒不如说只是揭示了真正的智能不是什么。”(Christian, 2011a:12)但这种撤退不可能无限期持续下去。想想看:如果我们以为依赖于思维的一切原来都与思维无关,那么思维是什么?难道只是大脑的一种幻觉?还有,我们不妨扪心自问:让我们对自身独特性的定义在某种意义上被动地迎合不断发展的前沿科技,这样做对吗?soP哈希力量 | 通用人工智能文库

图灵提出他的测试作为衡量技术进步的一种方式,但它同样可以让我们衡量自己是否进步了。牛津大学哲学家约翰·卢卡斯(John Lucas)说,如果我们无法阻止机器通过图灵测试,那将“不是因为机器有多么聪明,而是因为人类,至少是其中许多人,有多么机械”(Christian, 2011b)。正如计算机科学家杰伦·拉尼尔(Jaron Lanier)所说的那样:“图灵假设通过测试的计算机变得更聪明或更像人类,但同样可能的结论是,人变得更笨并且更像计算机。”(Halpern, 2006)soP哈希力量 | 通用人工智能文库

20.jpgsoP哈希力量 | 通用人工智能文库

从图灵最初设想的角度来看,这是一个逆转。人类不再将机器放在房间里进行测试。相反,人类使自己服从机器的游戏规则,也许以合作的方式工作,让机器获取有关人类如何说话的数据,并让人类接受关于他们应该如何说话的指导。soP哈希力量 | 通用人工智能文库

如此,我们就可以彻底扭转图灵的问题,并询问计算机环境中的人类是否真的表现出人类的特征。他们本来已经在TikTok上的表演视频中展示自己,沉迷于无休无止的社交媒体,长达数小时重复玩同样的游戏。现在,伴随着大型语言模型的出现,又多了一件新鲜事:同聊天机器人聊天。我们不知道莱莫因到底花了多少小时、天、周或月与他心爱的语言模型交谈,才觉得对方是有生命的。soP哈希力量 | 通用人工智能文库

人类深陷虚拟现实中无法自拔,而机器则通过尝试与人类竞争来完善自己的程序,这可不是科幻电影。必须承认,无论有没有人工智能,人们都有可能愚蠢、浪费、走向荒谬和自我毁灭。然而,我们可以用人工智能更有效地完成这件事,因为我们可以用计算机更有效地完成任何事情。不过,这些是人类的追求吗?还是机器可以比人类执行得更好的一种追求,只不过使用一个虚构的身份?在最后的前沿,也许我们都在等待机器下达它认为人类足够智能的条件。soP哈希力量 | 通用人工智能文库

图灵的先见之明也是如此。正如他在1951年的一次采访中所说:“如果机器能够思考,它的思考可能比我们更聪明。那么我们将会在哪里呢?”[4]soP哈希力量 | 通用人工智能文库

从拟人化走向批判性人工智能soP哈希力量 | 通用人工智能文库

21.jpgsoP哈希力量 | 通用人工智能文库

人工智能正在充当心理治疗师 soP哈希力量 | 通用人工智能文库

虽然“人工智能”中所涉及的“智能”从未被严格理论化或定义过,但最近利用人工智能谋取商业利益的行为加剧了该领域的炒作。“人工智能”这个短语本身可能就是有史以来最成功的营销术语之一。它尤其让人联想到思维机器的概念。但实际上,没有机器可以思考,也没有软件是真正智能的。拟人构成了许多人工智能系统的设计和包装方式。soP哈希力量 | 通用人工智能文库

我们需要找到一种科学地谈论机器“智能”的方法。许多技术专家使用“狭窄人工智能”(ANI, artificial narrow intelligence)将数据驱动的机器学习系统描述为有限应用,与人类智能或“通用人工智能”(AGI, artificial general intelligence)的普遍性形成鲜明对比。例如,布莱恩·坎特威尔·史密斯(Brian Cantwell Smith)认为,人工智能的最新进展可能具有划时代的意义,但人类智能与新计算能力所实现的最强大的计算相比,具有不同的层次。史密斯将这种人工智能能力称为“演算”(reckoning),并认为它不会导致完整的人类判断——基于伦理承诺和负责任行动的冷静、审慎的思考(Smith, 2019)。soP哈希力量 | 通用人工智能文库

另一种不同的方法是拒绝这个标签,谈论人工的“非智能”,正如梅瑞狄斯·布鲁萨德(Meredith Broussard)所做的那样。“人工非智能”(artificial unintelligence)这个说法,源于技术推动者宣称的人工智能和其他数据驱动的决策所能做的事情与其实际可做的事情之间的差距,以及在未来可能做到的事情之间的差距。布鲁萨德展示了包括媒体和风险投资家在内的公众是如何被通用人工智能的概念所迷惑的,尽管现有的人工智能非常有限,虽说可以很好地完成某些任务,但当应用于人们希望它能解决的更混乱、更具有社会偶然性的问题时,很快就失去了真正的功效(Broussard,2018)。soP哈希力量 | 通用人工智能文库

第三种办法是用多元的、超越人类的术语来描述“智能”,避免长久以来的夸张的拟人化。机器智能不仅与人类、也与所有动物的智能有很大不同。多元,即用多元智能理论(Gardner, 1983)打破单一的智能观;超越人类的意思是,突破人工智能的讨论仍然顽固地植根于简单化的人类中心主义思维模式的现状,不再将人类智能视为任何智能的典范(从而忽视非人类动物等的多种智能)。同样的思维模式将人类智能视为大脑中一种基本的可计算、可测量的能力,这种假设鼓励研究人员利用狭隘的功利主义、经济学和博弈论的原子化抽象概念,而忽视更为复杂和情景化的视角,诸如身体体现、情感与关爱、关系网、文化背景和哲学假设等。拟人化的类比将预测分析与人类决策混为一谈,并将海量数据集与人类知识、社会经验和文化承诺等同起来,从而歪曲了数据驱动的机器系统的功能。摒弃这些错误假设的意义在于,既要对机器智能有深刻理解,又要把生物生命的机械简化加以复杂化。soP哈希力量 | 通用人工智能文库

22.jpgsoP哈希力量 | 通用人工智能文库

人类长期以来一直在创造的技术中看见自己。认知科学家甚至创造了一个词,将人们理解拟人化并投射到自然语言生成对话系统上的倾向称为“伊莱扎效应”(Hofstadter 1996),以说明我们对计算结果赋予更深层次的意义的趋势,以及我们如何通过投射计算机拟人化的品质来与之相联系。soP哈希力量 | 通用人工智能文库

20世纪60年代中期,麻省理工学院研究者约瑟夫·魏岑鲍姆(Joseph Weizenbaum)打造了一个他命名为ELIZA的自动心理治疗师。模仿“罗杰式心理治疗师”(Rogerian psychotherapist)的对话是这个交互式软件程序的明显目标。令魏岑鲍姆懊恼的是,他发现“极短时间内接触”这个简单的对话程序“可能会在相当正常的人身上引发强烈的妄想思维”(Weizenbaum 1976: 7)。他由此发现了拟人化的潜在风险,即人们像信任人类一样信任人工智能,却没有考虑到人工智能可能失败和犯错误的不同方式。soP哈希力量 | 通用人工智能文库

不过对于魏岑鲍姆来说,还有更加深远的问题。他以汉娜·阿伦特(Hannah Arendt)和刘易斯·芒福德(Lewis Mumford)的思想为基础,认为人工智能研究已发展出对技术固执迷恋的症状,催生出“越来越高度理性化”的社会观和“机械化”的人的形象。为此,魏岑鲍姆抨击了机器和人类思维之间的界限被侵蚀的状态,呼吁划出一条“界线”,“将人类智能与机器智能分开” (Weizenbaum, 1976:8)。在这样做的过程中,他拒绝了计算与人类理性(以及计算机与大脑)之间的类比,而这种类比,如我们所见,已成为人工智能研究的核心。soP哈希力量 | 通用人工智能文库

魏岑鲍姆的《计算机能力和人类理性:从判断到计算》(Computer Power and Human Reason: From Judgment to Calculation)至今仍然是人工智能伦理学的基础著作。其副标题“从判断到计算”的灵感来自于阿伦特1971年对导致越南战争升级的军事决策进行批评时的区分(Arendt, 1971)。是年,五角大楼文件的泄露震惊了美国公众。一份包含秘密文件的报告证明,政府在越南战争的意图、起源和进程方面有系统地向公众撒谎。阿伦特迅即发表了她的文章《政治中的谎言:对五角大楼文件的反思》,质疑政治为何会如此失败。soP哈希力量 | 通用人工智能文库

她发现,主管决策者“以‘理性’为荣”,而且,他们“渴望找到公式,最好用伪数学语言表达,将现实呈现的最不同的现象统一起来。也就是说,他们渴望发现解释和预测政治和历史事实的规律,就好像它们是必要的,因此是可靠的,就像物理学家曾经相信的自然现象一样”(Arendt, 1972:11)。soP哈希力量 | 通用人工智能文库

阿伦特进一步阐明,人类事务是偶然的,不能像自然法则那样被理论化,从而成为计算的对象。通过具体说明差异,阿伦特引入了判断与计算的对立:“解决问题的人不做判断;他们是在计算。他们的自信甚至不需要在如此多的误判中自欺欺人地维持下去,因为它依赖于数学的、纯粹理性真理的证据。”(Arendt, 1972:37)soP哈希力量 | 通用人工智能文库

而魏岑鲍姆采用了阿伦特的对比,开创了一种反复提及判断与计算差异的批判传统。这种批判传统认为,人类事务的全面数据化和可计算性将导致用计算代替判断,哪怕这种计算表面上看起来是客观的。soP哈希力量 | 通用人工智能文库

23.jpgsoP哈希力量 | 通用人工智能文库

Computer Power and Human Reason: From Judgment to Calculation,  by Joseph Weizenbaum, 1976soP哈希力量 | 通用人工智能文库

今天,我们迫切需要复兴魏岑鲍姆的思想传统,在任何情况下,都不应该用纯粹的计算术语来思考人工智能;相反,要认识到,人工智能是一个复杂的社会-技术人工制品,需要被理解为通过多样化的社会过程构建之物。换句话说,当我们考虑人工智能时,我们必须同时考虑人类层面和技术层面。而且,在一个算法看似越来越不可避免的世界中,要学会热爱“令人不安的偶然性”,正是这种偶然性,才构成人类事务的中心特征。soP哈希力量 | 通用人工智能文库

这就要求在实践中摒弃拟人论,特别是摒弃大脑的计算隐喻。这一隐喻至今仍占据主导地位,例如,美国人工智能专家加里·马库斯(Gary Marcus)就坚持认为,“计算机是一种系统架构,它接受输入,对信息进行编码和处理,并将输入转化为输出。就我们所知,大脑也正是如此”。马库斯接着说,神经科学的任务是对大脑进行“逆向工程”,就像人们研究计算机一样,研究它的各个组成部分及其相互联系,以破译它是如何工作的(Cobb, 2020)。这一建议已经存在了相当长时间。然而正如 DNA双螺旋的共同发现者弗朗西斯·克里克(Francis Crick)所指出的那样,大脑是一个综合的、进化的结构,它的不同部分出现在进化的不同时期,并适用于解决不同的问题。由于大脑的进化历史复杂而混乱,克里克戏剧性地声称此类想法就像试图对一种“外星技术”展开逆向工程一样,注定会失败。试图从大脑的结构逻辑中找到大脑工作原理的整体解释是行不通的,因为出发点就是错误的——并不存在整体逻辑(Crick, 1989)。soP哈希力量 | 通用人工智能文库

人类的思维和图灵机的思维有着本质的不同,不仅它们存在的物质条件差异很大,而且它们的运作方式和逻辑结构也截然两样。大脑以连续的时间并行地处理一切,而不是离散的间隔。相形之下,建立在图灵机基础上的数字计算机采用了基于诺依曼架构的具体设计,其工作原理主要是逐步执行存储体中编码的指令列表,同时访问存储在离散存储槽中的信息。当图灵谈到“离散状态机”的“本质属性”——它们的运行完全可预测,并且在其范围内没有功能错误时,他暗示在机械大脑的思维世界中不存在意外,没有不可预见的偶然事件。然而人类的现实中却充满了它们。soP哈希力量 | 通用人工智能文库

如果我们同意阿伦特关于判断是人类的一种独特能力的观点(Arendt, 1978, 1982),那么,人类判断的具体特征与算法计算等定量过程就是不可通约的。我们需要在计算和判断之间找到一个界限,计算是机器可以替代人类的功能,至于判断,必须留给计算机的人类操作者。因为只有判断才赋予计算意义或目的。soP哈希力量 | 通用人工智能文库

24.jpgsoP哈希力量 | 通用人工智能文库

这也是我们为什么必须摒弃拟人论的原因:大脑作为计算机的比喻无法解释我们如何获取意义。无论神经网络多么复杂,流经其中的信息实际上没有任何意义。例如,人脸识别程序可能会将特定的面部识别为我的或你的,但最终它只是跟踪两组数字之间的相关性,仍然需要有人来理解、思考、感知。人类与世界关系的独特性赋予判断不可或缺的合法性。soP哈希力量 | 通用人工智能文库

然而,在算法霸权的时代,对计算日益取代判断或人类环境和社会被工具理性所窄化的批判,变得前所未有的紧迫(Schumann & Taddicken,2021:8)。1976年,魏森鲍姆还在提出疑问:“人类思想的每个方面是否都可以归约为逻辑形式主义,或者用现代习语来说,人类思想是否完全可计算”(Weizenbaum,1976:12),而半个世纪之后,“判断本质上可以被归约为计算或定量过程”的假设已然变得极为普遍(Malpas,2020:1073)。对此一发展,阿伦特早就忧心如焚:soP哈希力量 | 通用人工智能文库

如果真的证明知识(现代意义上的专有技术)和思想已经永远分离,那么我们确实会成为无助的奴隶,不仅是我们的机器的奴隶,更是我们的专有技术的奴隶,成为毫无思想的生物,受任何一个技术上可能的玩意儿的操纵,哪怕它会置人于死地。(Arendt, 1958/1998: 3)soP哈希力量 | 通用人工智能文库

对于判断,有一种见解认为,它仅在“罕见”的“危机”时期才有意义。然而阿伦特所理解的危机不一定是一种“罕见”且短暂的现象。她所说的“黑暗时代”(Arendt, 1968)的影响是长期而普遍的。在人工智能时代,那些相信人工智能会用更好的计算或决策取代判断的人,可能会因高估人工智能系统的智力而把自己带入危险的境地。判断的不可避免性并非仅仅是一种人文主义断言。相反,它触及一个对世界加以塑造的物种的核心,这个物种无法逃避自身的模糊性。计算对于解释心智、智能和意识来说可能非常重要,但心智过程从来不是计算过程,因为它们本质上富有意义。而算法,终究只有在有意义的生活中才行之成理。soP哈希力量 | 通用人工智能文库

注释:soP哈希力量 | 通用人工智能文库

[1] Ilya Sutskever (@ilyasut), Feb 10, 2022. Retrieved Mar 3, 2024 from https://twitter.com/ilyasut/status/1491554478243258368?t=5OqmaXXO7SmZqEOZpCxI8g&s=19.soP哈希力量 | 通用人工智能文库

[2] The Loebner Prize. Retrieved Mar 3, 2024 from https://www.ocf.berkeley.edu/~arihuang/academic/research/loebner.html.soP哈希力量 | 通用人工智能文库

[3] 这让我们想起图灵关于“儿童机器”(child machine)的构想。1950 年,图灵曾说:“与其尝试制作一个程序来模拟成人思维,为什么不尝试制作一个模拟儿童思维的程序呢?如果对其进行适当的教育,就能获得成年人的大脑。” 图灵将这个简单的机器称为“儿童机器”,并表示它必须学习“主动性”和纪律,以便它能够修改自己的指令并作出自己的“选择”。当它这样做时,它就“长大了”——然后“人们不得不认为机器表现出了智能”。根据图灵的说法,这只是效仿人类孩子的例子:当一个孩子学会独立于老师进行发现时,老师不会将功劳归于自己(Proudfoot, 2017:315-325)。图灵将他所谓的“儿童机器”与海伦·凯勒(Helen Keller)相提并论,他说机器“被送去学校时不会被其他孩子过度取笑”,但它会有“家庭作业”,他还建议“机器的教育应该委托给一些非常称职的校长(Turing, 1951:473)。soP哈希力量 | 通用人工智能文库

[4] “数字计算机可以思考吗?”,1951 年 5 月 15 日 BBC 第三台节目的谈话。作为谈话嘉宾,图灵提到了自由意识和决定论的古老论战,提到了量子力学的不确定性,还提到了他自己对于机器的“自由意识”的想法。最后,图灵以自己对机器智能研究的评述作为结束:“整个思维过程,对我们来说仍然神秘,但是我相信,尝试建造具有思维的机器,将极大地有助于我们探索人类的思维机制。”The Turing Digital Archive. Retrieved Mar 3, 2024 from https://turingarchive.kings.cam.ac.uk/publications-lectures-and-talks-amtb/amt-b-5. soP哈希力量 | 通用人工智能文库

参考文献略,原文刊载于《新闻大学》2024年第3期。soP哈希力量 | 通用人工智能文库



收录来源链接或附上。内容并不代表投资建议。


本文收录后固定可引用URL链接
    http://www.haxililiang.com/toutiao/redian/37563.html


☉ 文库同一主题内容智能推荐 ☉
哈希力量 ☉ 通用人工智能文库