诳嗬直砩系谜郑ㄎ颐强梢愿运降匕才旁谖颐亲鞲髦址袷钡玫秸郑缫桓鋈嗽谥圃旎髌腿耸彼龅哪茄。┮残碛腥嘶崧壅溃捎谄疽皇备咝税颜庵帧澳康摹奔拥轿颐堑囊瞧魃舷缘糜行┳鲎鳌5牵夂妥匀谎≡窦釉谧魑鎏宓奈颐巧砩系模诤艽蟪潭壬鲜怯捎诖诮哟男枨笏涞囊欢ā澳勘辍保⒚挥惺裁捶浅4蟮牟畋稹O衷冢偕栉颐堑囊瞧靼凑账姓庖磺幸驯怀晒Φ卦斐觥N颐怯惺裁慈ɡバ扑目嗬种滴彼肥蹈械娇炖郑嗬种滴菏备械酵纯嗄兀緼I(或行为主义)的观点是,我们简单地从仪器行为的方式来判断。
由于它以一种尽可能增加其正值的(并且尽可能久地)以及相应地尽量避免负值的方式行为,那么我们可以合理地把它的值的正的程度定义为快乐的感觉,而相应地把负值定义为痛苦的感觉。人们会说,此定义的“合理性”正是来自于人类对于快乐和痛苦以目标方式反应的这一事实。当然,正如我们都知道的,人类的事情实际上并不像这么简单:我们有时似乎特地招惹痛苦,故意回避某种快乐。很清楚,我们的行为实在是由比这些更复杂得多的判据所导引的(参阅德涅特(1978),190―229页)。但是作为一个非常粗糙的近似,我们的行为的确是避免痛苦和追求快乐。对于一个行为主义者来说,这已经足够在类似的近似水平上,为我们的仪器的苦乐度和它的痛苦快乐评价的相认同提供正当的理由。这种认同仿佛也是AI理论的一个目的。
我们应该问:在我们的仪器的苦乐度为负或为正时,它是否真正分别地感觉到了痛苦或快乐呢?我们的仪器在根本上是否能感觉到什么呢?行为主义者或者会斩钉截铁地说“显然如此”,或者把这一问题斥为无稽之谈。但是,我觉得这里很清楚地存在一个要考虑的、严肃的困难问题。它对我们自己具有不同种类的影响。有些像痛苦或快乐是可意识的;但是还有其他我们不直接知道的。这可由一个人触摸到热火炉的经验得到清楚的阐明。他在甚至还未感到痛楚之前就采用了抽手回来的不情愿的动作。
事情似乎变成,这种不情愿的动作比痛苦或快乐的实际效应更接近于我们仪器对自己的苦乐度的反应。人们经常用一种拟人化的语言,以一种叙述性的、通常是滑稽的方法来描述机器的行为:“今天早晨我的车仿佛不想开拔”;或“我的手表仍然认为这是加利福尼亚时间”;或“我的电脑宣布,它不理解上一条指令,而且不知道下一步要做什么。”我们当然不是真正地表明车实际上会要什么,或者手表在思维,或者那台电脑①真的宣布任何事情,或者它理解甚至知道自己在做什么。尽管如此,假使我们仅仅在它们企图的意义上而不是按字面宣布上接受这样的陈述,则它们可以是描述性的,并且对我们自己的理解有真正的帮助。 我将会对AI的有关各式各样建造起来的仪器所具有的精神品质的声称采取类似的态度,而不顾及他们所企图想望的!如果我同意说,格雷?瓦尔特乌龟会饥饿,那只是在半开玩笑的意义上这么说的。如果正如上面所摹想的,我准备对苦乐值使用诸如“痛苦”或“快乐”
等等术语,只是因为我发现其和我自己的精神状态的行为有一定的相似性,这些术语有助于我对其行为的理解。我不是暗示这些类似真的是特别① 譬如讲在1989年!接近,或者不存在其他无意识的以更加类似得多的方式影响我行为的东西。我希望使读者清楚,我的意见是,对精神品质的理解,除了直接从AI得到之外,还存在有更大量的东西。尽管如此,我相信AI实现了一种值得尊敬和慎重处理的严肃的情势。我在说到这些时,并不意味着在人工智能的模拟中,如果有的话,有非常多的成就。但是人们必须心中有数,这个学科还是非常年轻的。电脑会变得更快速,具有更大的可快速存取的空间、更多的逻辑元,并可并行地进行更大数目的运算。在逻辑设计和程序技术方面将会有所改善。这些机器,这种AI哲学的载体将在它们的技术能力方面得到大幅度的改善。此外,该哲学本身也不是固有地荒谬的。也许电脑,也就是当代的电脑的确能非常精确地模拟人类的智慧。这种基于今天被理解的原则,但是具有更伟大得多的能力、速度等等的电脑一定会在近年内被制造成功。也许甚至这样的仪器将真正是智慧的;也许它们会思维、感觉以及具有精神。或者它们也许还制造不出来,还需要一些目前完全缺乏的原则。这些都是不能轻易排斥的问题。我将尽我所见地提出证据。我将最终提出自己的看法。强人工智能和西尔勒中文屋子有一种称作强人工智能的观点在这些问题上采取相当极端的态度7。
根据强AI,不仅刚才提到的仪器的确是智慧的并且有精神等等,而且任何计算仪器,甚至最简单的机械的,诸如恒温器的逻辑功能都具有某种精神的品质8。这种观点认为精神活动只不过是进行某种定义得很好的、经常称作算法的运算。下面我将精确地说明算法实际上是什么。此刻暂且把算法简单地定义为某种计算步骤就已足够了。在恒温器的情形下,其算法至为简单:仪器记录其温度是否比设定的更高或更低,然后使线路在前面情形时断开,而在后面情形时接通。对于人脑的任何有意义的精神活动,其算法必须比这远为复杂得多,它和恒温器的简单算法在程度上具有极大的差别,而在原则上则相同。这样,根据强AI,在人脑的主要功能(包括它的一切的意识呈现)和恒温器之间的差别只在于,在头脑的情形中具有更大得多的复杂性(或许“更高级的结构”,或“自省性质”,或其他可赋予算法的属性)。按照这一观点,至为重要的是,所有精神品质,譬如思维、感情、智慧、理解、意识都仅仅被认为是这一复杂功能的不同侧面;也就是说,它们仅仅是头脑执行的算法的特征。任何特殊算法的价值在于它的表现,也就是它的结果的精确,它的范围,它的经济性和它可运行的速度。一种想和人脑中假想的运行的算法相比拟的算法一定是非常了不起的东西。如果头脑中存在有这一类算法,强AI支持者肯定作此断言,那么在原则上它可在一台电脑上执行。假定它不受存储容量和运算速度的限制的话,的确可在任何当代的通用电子电脑上执行。(我们以后去考虑普适图灵机时,这一评论就会得到证实。)人们预料,在不太远的将来大型快速电脑将会克服任何这类限制。一旦这样的一种算法能被找到,它就能通过图灵检验。强 AI支持者就会宣布,只要执行该算法,它自身就会经验到感情,具有意识,并且是一种精神。
绝不是每一个人都同意,可用这类方法把精神状态和算法相等同。美国哲学家约翰?西尔勒(1980,1987)尤其反对这种观点。他引用过这种例子,即假定有一台适当地编了程序并已经实际上通过了简化的图灵检验的电脑,但是他以有力的论证支持如下观点,即便如此,这台电脑仍然完全不具备和理解有关的精神属性。其中一个例子是基于罗杰?施安克(施安克和阿伯勒逊1977)设计的电脑程序之上。该程序的目的是为理解简单的故事提供模拟,例如:“一个人进入餐馆并订了一份汉堡包。当汉堡包端来时发现被烘跪了,此人暴怒地离开餐馆,没有付帐或留下小费。”第二个例子是:“一个人进入餐馆并订了一份汉堡包。当汉堡包端来后他非常喜欢它;而且在离开餐馆付帐之前,给了女服务生很多小费。”作为对“理解”这一故事的检验,可以询问电脑,在每一种情形下此人是否吃了汉堡包(这一事实在任一故事中都没有说清)。电脑对这类简单的故事和问题可给出和任何讲英文的人会给出的根本无从区别的回答,也就是对于这些特定的例子,第一种情形是“非”,而第二种情形是“是”。这样一台机器已在这一非常有限的意义上通过了图灵检验!我们应该考虑的问题是这类成功是否实际上表明电脑方面或许程序本身方面具有任何真正的理解。西尔勒使用了他的“中文屋子”的概念来论证它不具备。他首先摹想,这一故事是用中文而不是英文来讲,这肯定是非本质的改变。把这一特殊演习的电脑算法的所有运算(用英文)作为一组指令提供给用中文符号进行操作的计算员。西尔勒想象自己被锁在一个屋子里操纵这一切。代表这一故事和问题的一连串符号通过一条很小的缝隙被送进这屋子。不允许任何其他的来自外头的信息漏进去。最后当所有的操作完成后,程序的结果又通过这条缝隙递到外面来。由于所有这些操作都是简单地执行施安克程序的算法,这个最终程序的结果简单地为中文的“是”或者“非”,给出了关于以中文说的故事用中文问的原先问题的正确答案。现在,西尔勒很清楚地表明他根本不识中文,这样他对该故事讲的是什么没有任何哪怕是最浅的概念。尽管如此,只要正确地执行了那些构成施安克算法的一系列运算(已给他用英文写的这一算法的指令),他就能和一位真正理解这故事的中国人做得一样好。西尔勒的要点是,而且我以为是相当有力的,仅仅成功执行算法本身并不意味着对所发生的有丝毫理解。锁在他的中文屋子里的(想象的)西尔勒不理解任一故事的任一个词!
人们对西尔勒的论证提出了许多异议。我将只提到我认为具有重要意义的那些。首先,在上面用到的“不理解任一个词”的短语也许有容易使人误导的东西。理解和模式之间正与它和单独词汇之间有一样多的关系。
在执行这类算法时,在不理解许多个别词汇的实在意义的情形下,人们可以知觉这些符号构成的模式的某些东西。例如,中国字的“汉堡包”(如果,真的有这个词的话)可用某一其他的菜譬如讲“炒面”来替换,而故事不会受到重大影响。尽管如此,我觉得可以合理地假设,如果人们仅仅跟踪着这种算法细节的话,(即使把这种代换认为不重要)只传递了该故事中很少的实际意思。其次,人们必须计入这个事实,如果用人类的操纵符号来执行的话,在正常情形下甚至执行一个相当简单的电脑程序也会是非同寻常的冗长和繁琐。(这毕竟正是为何我们让电脑来为人类做这种事的原因!)如果西尔勒真的以这种提议的方式实行施安克的算法,那么仅仅是为了得到哪怕是一个单独问题的答案,他很可能要花费许多天、许多月甚至许多年极其枯燥的工作,这根本不像是一位哲学家的活动!然而,由于我们在这里主要关心原则的而不是实践的事体,所以我仿佛觉得这不是一个严重的反对。在具有和人脑相当的足够的复杂性、并因此适当地通过图灵检验的假想的电脑程序中引起了更多的困难。任何这类程序都是极可怕地复杂。人们可以想象,为了回答甚至相当简单的图灵检验问题,这一段程序的运算会涉及到如此多的步骤,以至于在一个正常人的一生中根本没有可能用手完成这一算法。在没有这种程序的情形下,这是否的确如此还很难说9。
但是,依我的观点,这一极其复杂的问题无论如何不能简单地不予理睬。
是的,我们在这里关心的是原则的事体,但是一个算法要呈现出精神品质,其复杂性就要达到某一“临界”量,我认为这是合情理的。这一临界量也许是如此之大,复杂到这等程度的算法,由任何人以西尔勒摹想的样子用手来进行,根本就是不可能想象的。西尔勒本人允许一整队不能讲中文的符号操作员去取代原先中文屋子里的孤独者(“他自己”),以此来抵抗上面的反对。为了得到足够大的数目,他甚至想象把它的屋子用印度整个国家来代换,现在它的全部人口(除了理解中文的人以外!)都来从事符号操作。虽然这在实践上是荒唐的,但在原则上却不是,而且该论断在本质上和以前是一样的:尽管强AI宣称只要实现适当的算法即会诱导出“理解”的精神品质,这些符号操作员仍然不理解这故事。然而,现在另有一种反对正开始幽然逼近。这些单独的印度人难道不是比起来更像人脑中的神经元而不像整个人脑本身吗?没人认为神经元本身会单独地理解这个人的思想,神经元的激发明显地构成人脑在进行思考时的物质活动,为何要期望单个印度人去理解这中文的故事呢?为了答复这一诘问,西尔勒指出,如果在印度没有一个单独的人理解这一故事,而真