重回中文屋.docx
- 文档编号:12458621
- 上传时间:2023-04-19
- 格式:DOCX
- 页数:10
- 大小:24.01KB
重回中文屋.docx
《重回中文屋.docx》由会员分享,可在线阅读,更多相关《重回中文屋.docx(10页珍藏版)》请在冰豆网上搜索。
重回中文屋
重回中文屋
一、摘要
塞尔是当代美国最具影响力,最活跃的哲学家之一,他的“中文房间”思想实验更是当代心灵哲学不可或缺的哲学论证。
它简单有力的反驳了强AI的论证,至今仍被广泛的引用。
塞尔的论证成为一个经典论证,堪称是认知科学里面非常有影响力的工作,这也许不在于它是否完美,而在于它引起了广泛的争论。
在过去的27年中,发表了上百篇关于塞尔中文房间思想实验的文章。
这无疑推动了认知科学,人工智能哲学等方面的进步。
本文将从两个主要方面展开关于中文房间的争论。
在文章的第一部分,我将简要的介绍强人工智能(强AI),图灵测试和塞尔的中文房间思想实验。
第二部分将就中文房间展开争论。
主要从纯形式的符号处理不足以产生心和计算机要理解必须有和人脑一样的因果能力两个大方面,展现对立观点的交锋。
最后一部分笔者将提出自己的观点
关键词:
中文房间论证,强AI,图灵测试,语义,语法,意向性,因果能力
一、强AI,图灵测试,中文房间(检查背景是否介绍清楚)
1.1强AI
在计算机模拟人类认知能力方面,塞尔提出了“强AI”和“弱AI”的划分。
弱AI只是把计算机作为了我们研究心灵哲学的一个有力的工具。
而强AI认为,适当编程的计算机就可以被认为具有理解和其他认知状态。
也就是说,恰当编程的计算机就是一个心灵。
塞尔把这种观点概括为,心对于脑的关系就是计算机程序对于计算机硬件的关系。
因此,思想就是由大脑运行程序产生的,正如计算机硬件运行软件。
1.2图灵测试
1947年英国数学家和逻辑学家A·M·图林就在《计算机器与智能》一文中设计了著名的“图林测验”来证明机器具有智能。
他设计了这样一个游戏,称为“模仿者游戏”。
假设游戏中有三个角色,一个是人,一个是有恰当程序的数字计算机,还有你。
你可以通过一台电传打印机和他们两交流,提问。
你只能通过让他们回答你的问题,来判断哪个是人哪个是计算机。
如果你不能正确的找出哪个是计算机,那么它就通过了图灵测试,也就证明了计算机也和人类一样有思维。
虽然专家们还没有找到合适的软件,但是他们有理由认为,一旦这种软件被开发出来,并且在硬件上运行,计算机就可以创造出和人类一样的思考行为,这在原则上是完全可能的。
1.3中文房间
针对强AI和图灵测试,塞尔设计了中文房间思想实验。
中文房间思想实验是建立在反对图灵测试的基础上,而形成的一个判断机器是否理解的标准。
图灵和塞尔都强调他们所提到的机器是指数字计算机。
塞尔认为,所谓数字计算机就是说它运行的是有合适输入输出的程序,它的运算能被形式化的表示出来。
塞尔明确的指出,他的反驳和任何特殊的计算机技术阶段无关,即不能期待某种尚未创造的技术奇迹,所有反驳只与一台数字计算机的定义有关。
由此,塞尔就提出了一个前提:
数字计算机进行的都是纯形式的操作。
在中文房间思想实验中,塞尔就是操作符号的人,和计算机所做的操作一样。
这样一来,如果在符号操作之后,塞尔不能理解这些符号及其联接,那么毫无疑问的,计算机也不理解这些符号及其联接。
为了证明自己的观点,塞尔设计了一个巧妙的思想实验:
无论对于什么心灵理论,检验它的方法,就是问一问自己,如果我们的心灵实际按照这一理论所说的那种所有心灵都采用的原则去工作,将会出现什么样的情况。
……假定我被锁在一间屋子里面,并给了我一大批中文文本;而且假定我对中文一窍不通……之后,又给了我第二批中文脚本,并带有一套规则,使第二批与第一批发生联系。
规则是用英文写的。
我和其他以英文为母语的人一样是理解这些规则的。
用这些规则,我可以把一组形式符号与另一组形式符号联系起来。
……现在,假定又给了我第三批中文符号,同时还有一些指令,仍是英文的,这些指令使我可以把第三批元素同前两批联系起来,并指示我怎样送回某种特定形状的中文符号,作为对第三批中送给我的那些特定形状符号的相应。
……第一批符号叫“脚本”,第二批符号叫“故事”,第三批符号叫“问题”,而且把我送回相应第三批文本的符号叫做“对问题的回答”,同时,把他们给我的那套英文规则叫“程序”。
我们再假定,通过窗口,屋外的人给塞尔一些中文的涂画,塞尔从规则书中了解到怎样为这些涂画配对,并总是通过这些涂画的形状来查找中文涂画。
最后塞尔会把配好对的涂画从窗口给出。
经过一段时间,塞尔变得熟练起来,屋外的中国人会认为,塞尔的回答与讲中文母语的人的回答毫无差别。
塞尔认为,此时,强AI的观点肯定认为计算机已经理解了这些故事,同时,这个程序在某种意义上解释了人类的理解。
但是,塞尔明确的指出,自己完全不理解中文,甚至根本不知道自己所处理的符号就是中文,更不知道自己正确的回答了中文问题。
在句法的层次上,塞尔所做的操作完全就是计算机所做的,它们运行操作的形式符号不可能有意思,它们甚至不是符号操作,因为这些符号毫无意义。
用语言学的行话来说,它们只是句法的,而不是语义的。
所以,计算机也不能理解中文。
在塞尔的实验中,中文房间里的人可以给出回答,屋外的人也可能会认为屋内是一个中文母语者,换句话说,计算机是可以通过图灵测试的。
但塞尔并不认为这就能证明计算机具有智能了。
我们可以把塞尔的思想总结成一个三段论。
大前提,如果强人工智能是真的,那么肯定存在一个关于中文的程序,不管在什么硬件上运行,这个程序都能产生理解;小前提,“我”可以运行一个关于中文的程序,但是这个程序不会因此而理解中文;结论,强AI的思想是错误的。
这里特别要强调的是,很多人都认为塞尔的观点是机器不能思维,实际上塞尔并没有攻击人工智能的思想,他并不否认大脑是一台机器或者说这样的机器可以思考,也没有否认或许有一天科学家可以创造出人工智能产物。
他只是要反驳强AI正确的输入输出就能产生心的理论。
二、争论
2.1纯形式的句法不足以产生心
塞尔明确的提到,符号的操作没有意义,它们不具有语义内容,它们也不涉及任何事物。
它们只能纯粹按照形式的或语法的结构加以确定。
数字计算机也正是因为这个特点而特别的强大。
但把程序运行的过程理解为心理的过程是不对的,因为人心不仅仅是形式的或语法的过程,它是有内容的。
他的这个观点提出后就引起了很多争论,哲学家,语言学家和计算机科学家都开始发表回应,有支持者,但更多的是反对者。
塞尔在自己的著作中也预见到了一部分并给出了回答。
其中有几个应答提及率颇高。
2.1.1关于系统应答的争论
系统理论塞尔自己已经预见到了。
最早提出系统应答的是NedBlock,接着又有很多哲学家相继提出了这一论证,包括JackCopeland,DanielDennett,JerryFodor,JohnHaugeland,RayKurzweilandGeorgesRey.按照这一论证,中文房间里的塞尔只是中文房间系统的一部分。
他同规则书,中文脚本,以及房间本身等一样,作为整个房间的一部分确实是不理解中文的,但整个系统却是可以理解中文,并且能回答中文提出的问题的。
在这里,系统理论说中文房间系统可以理解只是从原则上来说的,并不是主张一个房间,一大堆中文字符,规则书,草稿纸等就可以有理解中文的能力了。
对于这个论证,塞尔提出了内化系统的回答,即让个体使系统的所有元素内化。
在变化后的实验中,塞尔不再是系统的一部分,他就是整个系统。
他要把所有的中文字符数据库,所有的规则内化为自己的记忆,并且在头脑中完成所有的符号操作。
这样,塞尔就不再受到中文屋子的限制,他本身就是一个完整的系统了。
但是,在这种情况下,塞尔仍然一点也不理解中文。
所以,从塞尔的应答中,我们可以得出结论:
塞尔内化为整个系统之后,如果塞尔不理解中文,那么他的任何部分都不能理解中文。
最重要的是,纯形式的符号操作不能对符号产生有意义的理解,也不可能帮助塞尔理解中文。
塞尔认为,系统应答是没有什么价值甚至有点可笑的,它其实就是这样一种观点,即对于一个不理解中文的人,只要他和一些纸张结合,就能在某种意义上理解中文。
但是,有哲学家对塞尔的应答又提出了质疑。
其中一个是JackCopeland。
他设想在塞尔的大脑中还有很多小矮人。
即使塞尔不理解中文,这些小矮人也能理解中文。
另外一种观点则认为,塞尔的论证是一个无效的逻辑结构。
即,我们不能因为一个包含a和b两部分的系统不具有性质p,就断定a部分或者b部分都不具有性质p。
与此类似的还有逻辑应答。
一个论证是真的,当且仅当它的所有前提都是真的并且它是逻辑有效的;一个论证是逻辑有效的,当且仅当,它的推论对于它的前提来说是必要的。
中文房间里的塞尔进行符号操作不能说明塞尔理解了中文,这个命题,不能使另外一个命题成为必要的,这个命题即塞尔进行符号操作不能使整个房间理解中文。
中文房间是一个完整的系统,它包括了塞尔,规则书,中文脚本,输入输出环节以及其他的部分。
这个系统并不是像塞尔所说的一个人加上一堆纸张那么简单的。
所以屋中的塞尔不理解中文,但是整个系统理解了中文的情况是可以存在的。
之后,塞尔又对系统应答给出一些反驳。
他坚持认为,如果塞尔在中文房间中不能通过语法来获得语义的话,那么中文房间也不能。
因为中文房间并没有增加任何塞尔所不具有的方法来获取语义,或者是复制大脑的因果能力。
他认为要说系统论证是正确的就必须解决两个问题:
第一,系统如何仅仅依靠语法来获得语义;第二,纯形式的系统怎么才可能用有人类大脑的特殊的因果能力。
只有这两个问题得到了很好的解释,才可以说系统应答取得了胜利。
2.1.2关于机器人应答的争论
机器人应答承认中文屋中的塞尔进行形式符号操作不能理解中文,但是他们设想,把一台计算机放入机器人中,通过这台计算机来操作机器人,使它能够做出行走,感知等等事情,并且通过计算机的摄像头,机器人可以“看见”。
这样,机器人就确确实实的可以接触到符号的意义,它的输入输出和人类行为完全相同。
此时,就可以说机器人真正有理解能力了。
对于机器人应答,塞尔的第一个反应就是,由于增加了一套与外界的因果联系,机器人应答实际上变相的承认了,形式符号的处理不足以产生理解。
这对打击强AI的思想已经是一个小小的胜利。
塞尔接着说,尽管增加了一系列感知和运动的能力,但是这些努力不会给机器人增加任何一丁点理解和认知的帮助。
为了更好的说明自己的理论,塞尔又把原来的中文房间思想实验做了一些变化。
假定是把中文房间,而不是计算机放出机器人中,中文房间中仍然有一个塞尔。
和以前的实验一样,塞尔得到了一堆中文字符和英文规则,要求把中文字符配对后输出。
只不过中文字符的输入变成了机器人的摄像头等装置受到刺激产生的输入;字符的输出不是从窗口递出,而变成了传递给机器人的传感器,然后用运动的方式表达出来。
现在塞尔就在机器人的大脑中进行着机器人的计算机程序要做的各个步骤。
机器人有它需要的感知和运动传感器,但是大脑中的塞尔对这一切毫不知情。
为了使说明更加形象,塞尔举了一个例子。
设想机器人通过传感器把受到的视觉刺激转换成一些中文字符,这些中文字符被输入到中文房间中,房间里面的塞尔会按照规则书对这些字符进行形式的处理,和他以前做的完全一样。
最后塞尔把配好对的符号输出给传感器,造成运动。
而这种运动以说中文的方式表现出来:
“我看了一尊大佛。
”但是,实际上房间中的塞尔和以前一样,不仅对中文毫无所知,不知道自己操作的是什么,而且对外部世界也完全看不见摸不着,他看见的只有规则书和中文符号,根本看不见大佛。
这对于机器人来说也是一样的。
由此,塞尔得出结论,“机器人根本就没有意向状态,它只是受电路和程序支配简单地来回运动而已。
”
然而塞尔的这个回应显然不被一部分哲学家接受。
Harnad就认为,除非传感器是塞尔身体的一部分而不是什么额外的附加物,否则塞尔就只是系统的一部分。
说系统的一部分不能理解就有回到了系统应答。
对此,塞尔又重新变化了思想实验。
假设房间中的塞尔因为视觉皮层受损而完全失明,但是他的感光器还能像传感器那样工作。
那么,就让机器人重新在上面的例子中,像利用传感器那样利用塞尔的感光器。
塞尔认为,接下来我们可以看到,这种变化根本不会带来什么不同。
屋中的塞尔仍然瞎着进行输入输出的操作,而看不见任何东西。
所以,我们又回到了一开始的问题,即语法不足以产生心。
表面上看有了传感器,有了感知和运动的能力,可以和外界产生因果联系,似乎可以说机器人理解了,但从本质上看传感器的输入输出的语法依然是语法。
传感器不会增加为语法增加任何东西,也不会增加任何复制大脑的特殊因果能力的方法。
塞尔反复强调,Harnad的TotalTuringTest实际上和图灵测试犯了一样的错误,那就是使我们混淆了认识论和存在论,即混淆了“我们怎么知道”和“什么是我们知道自己知道”。
行为加上语法不足以构成认知,那么同样的,传感器加上语法也不足以构成认知。
关于机器人应答的问题,M.A.博登又有自己不同的看法。
她认为塞尔在“想象的例子与计算心理学的主张之间作了一个错误的类比。
”按照塞尔的假定,机器人头脑中的塞尔是可以理解英文的,所以塞尔具有与人类大脑相同的意向性。
但是,计算机专家并没有把意向性赋予大脑。
我们也很容易想象,我们的大脑本身就看不见什么东西,能看见的是我们这个人整体,意向性也是属于人的整体的。
机器人中的塞尔就相当于机器人的大脑,所以塞尔看不见东西,并不能说明机器人整体也看不见东西,机器人整体也没有意向性。
所以,“把机器人中的塞尔说成是理解英文的,这中间有一个范畴错误,相当于认为大脑是智能的担负者而不是智能的因果基础。
”
2.1.3关于英文应答的争论
在讨论英文应答之前我想先补充几句。
在塞尔的思想实验中存在这样一个疑问。
既然已经假设房间中的塞尔根本对中文一窍不通,甚至没有把握“在辨认中文文本时能否把中文文本同日文文本或无意义的曲线区分开来。
”那么,他不会去推测中文符号是某种可以被理解的东西,他自然也就不会感觉到自己不懂中文。
在说明这一点的时候,GEIROVERSKEID举了一个例子。
假设有两个人A和B,他们一起在一个山洞里看见了刻在石墙上的复杂图案。
A认为这些图案可能是一种未知的语言,B则认为这些图案并不是人为的刻上去的。
现在,如果A开始琢磨这些符号的意思,A会觉得自己不理解它们。
但是B不会有这种感觉,因为他根本就不认为那些符号是可以理解的,也不会去琢磨。
中文房间让人信服的原因之一就在于,塞尔让读者们自问,假如是我在中文房间里,我理解中文吗?
答案当然是不理解。
GEIROVERSKEID认为,在这个问题上,塞尔让读者做了通常人们在说他人理解时不会做的事,那就是从第三人称的立场转换到第一人称的立场。
也就是说,按照塞尔的观点,要说一个人理解了某物,不但要求理解者拥有此物的相关知识,还要求理解者处在一个特定的主观状态中。
在通常的情况下,一个人(或者机器)只要可以用中文交流,我们就会认为他(它)理解中文。
机器的理解可能和我们不一样,但是我们不能因此就说它不理解。
比如说鱼的呼吸方式就和我们不一样,但是我们也不能因此说鱼不能呼吸。
GEIROVERSKEID又举了一个例子。
如果有一个学生,她对某一学科有很深入的理解,并且在考试中获得了A,但是她现在情绪低落,认为自己什么也不理解,那么情况真的是这样吗?
我们可以因此就否定这个学生的理解能力,取消她的好成绩呢?
事实上是不可以的。
那么,是不是就证明了塞尔的对理解的界定有问题呢?
(下文中将具体谈论这个问题)
博登认为,按照塞尔的思想实验,中文屋中的塞尔不是完全没有理解力的,因为这里面至少包含着他对英文规则书的理解,这也是塞尔的思想实验的一个重要的基本条件。
思想实验的正常运行,离不开房间中的塞尔对英文的正确理解,否则,他不可能按照规则书对中文字符进行合理的配对。
为了进一步反驳塞尔,博登继续论证道,假如屋中的塞尔遗忘了一部分英文词汇,这种情况不会有什么影响。
因为他只要掌握规则书上的英文词汇就可以了,即怎样接收,怎样配对,怎样传出。
至于规则书上没有提到的词汇,塞尔完全没有必要掌握。
也就是说,房间里的塞尔只需要理解塞尔英文的子集,这就相当于计算机的程序只需要理解我们英文的一个子集就可以了。
塞尔进行的操作以及输入和输出,就等价于计算机程序的输入和输出。
这里就出现了一个自相矛盾的地方。
说计算机理解了程序与塞尔的前提冲突了。
塞尔的思想实验从一开始就规定,数字计算机是纯形式的语法的,不足以产生语义。
而人心是有语义的,所以纯形式的语法不可能像人心一样去理解。
如果我们承认了塞尔的前提,那么该怎么对待计算机理解了程序的事实呢?
如果我们因此不承认塞尔的前提了,那么就说明了语法和语义是不可分的,计算机程序不仅是语法的,并且也是具有语义的。
恰当编程的计算机可以理解。
博登的英文应答对塞尔的思想实验提出了严峻的考验。
2.2人类大脑的因果能力是生成理解所必须的
塞尔的另外一个观点就是,人类大脑的因果能力是生成理解能力所必须的。
他认为“任何其他事物,如要产生心,应至少具有相当于脑产生心的那些能力。
”这里所指的就是以因果方式产生意向性的能力。
塞尔明确提出,“我之所以可以理解英文,并且具有其他形式的意向性,并不是因为我示例了一个计算机程序……是因为我是某种有机体,具有某种生物结构,在一定条件下,这个结构能够以因果的方式产生感知、行动、理解、学习以及其他意向性现象。
”这个观点同样引起了众多哲学家的反对。
2.2.1对“理解”的正确理解
我们首先来谈一谈对“理解”的正确理解。
塞尔专门谈到了对“理解”的界定。
他认为我们普遍的对理解存在着误解。
他说“理解指拥有心理(意向的)状态”,但是“我们常常运用比喻和比拟的手法,把理解和其他认知属性赋予汽车、加法机和其他人造物”。
我们说“恒温器能感觉到温度的变化”。
塞尔认为我们这样做的原因是把自己的意向性推广到人造物里去了。
这样做并不会对我们的哲学研究造成什么影响,只要我们不把这种比喻的理解和真正的理解混淆起来。
恒温器的理解和我理解英文是完全不同的。
强AI所主张的计算机的理解只是比喻意义上的理解,和恒温机的理解是一个层次的。
对塞尔来说,“理解”一定是一个过程。
但是GEIROVERSKIEID不这么认为。
在他看来,正是塞尔自己误用了“理解”。
他给“理解”下了一个定义:
一般说来,理解了x,意味着不因为缺乏关于x的知识而妨碍理解,从而能达到一种相关的,当下积极的目标。
GEIROVERSKIEID认为,判断自己理解和判断他人理解是完全不同的。
在说自己理解时,我们基于了一种私人的,主观的标准。
但是这种标准不适用于判断他人的理解。
我们永远无法知道他人的主观状态是什么,我们唯一可知是他人的可观察行为,比如:
他可以回答中文问题么?
但是,塞尔在对待机器的理解时,却采用了比对待人的理解更严格的标准。
所以,塞尔关于理解的理论是一种误用。
但是,塞尔坚持认为,要理解,一台机器或一个人就必须有一种主观的经历,也就是他所说的意向性,并且具有人类大脑的因果能力。
2.2.2意向性与理解
塞尔明确的提出意向性必须是依附与我们的生物特性的。
他在大脑产生意向性与叶绿素进行光合作用想类比。
这遭到了博登的强烈反对。
她指出,光合作用的原理和发生过程对于我们来说已经是十分清楚的了,但是对于大脑产生意向性却完全是不同的情况。
首先,关于意向性是什么的问题,我们尚未达成一致的见解。
为了表征意向性,也有很多的哲学家做过不懈努力,包括塞尔本人。
但是关于意向性的理论绝对不是像光合作用那样清楚明了。
其次,关于大脑产生意向性的过程更没有人可以解释清楚了。
塞尔的类比实际上是一种误导。
另外,有哲学家认为计算机也具有意向性。
按照塞尔的理论,缺少了意向性,计算机就不能理解,这是因为意向性与意识是紧密相关的。
虽然,塞尔认为,“并非所有的意识状态都是意向性的,也并非所有意向性状态都是意识的”,但“即使在无意识的情况下,无意识的心理状态也是一种能够成为有意识的东西。
”即无意识的信念也可以转变成有意向性的。
同时,他也强调了,这种无意识的心理状态必须是潜意识的。
所以,塞尔得出了结论:
“大脑中的某些非意识状态能够引起有意识的心理现象。
”这样,人便可以在无意识的基础上产生理解,但是机器仍然不可以。
塞尔认为,机器不能理解的原因还在于它们没有意向性。
但GEIROVERSKIEID指出,如果一个无意识的信念是潜意识的,并且是可以转变为意向性的,那么这种情况对于计算机也是一样的。
正如塞尔自己所说,在这个转变中,大脑方面一定是一些非意识状态在进行活动。
并且,“潜意识”就是说在如果处于一个合适的环境中,意识的就是可能的。
我们不知道一个人具体是怎样让自己无意识的信念变成有意识的,所以,虽然我们不知道计算机的无意识信念怎样变成有意识的,也不能否认计算机的信念是潜意识的。
这样,计算机也就可以产生意向性了。
更多的哲学家认为,在谈论理解问题的时候,意向性不应该占有如此重要的地位,我们更应该关注目标、动机等因素。
还可以扩充
2.2.3因果能力并不是必须的
前面已经谈到,很多哲学家同意机器人不可能像人类一样去理解。
但是这只能说明计算机可能以一种与人不同的方式产生理解。
我们也可以把塞尔的主张概括成一个三段论。
大前提:
任何可能产生心的系统都至少应该具有和人类大脑相同的因果能力;小前提:
现有的计算机都不具有人类大脑的因果能力;结论:
计算机不能产生心。
塞尔的大前提,在某种意义上可以说是从“脑产生心”得出的。
DavidCole指出,这个推断是不正确的,这里面存在着对“与大脑相同的因果能力”的含糊运用。
如果说这个推论是有效的话,那么,类似的,DavidCole做出这样一个推论,“因为氢气爆炸会引起死亡,要向引起死亡就必须具有与氢气爆炸相同的因果能力;氰化物不具备这种与氢气爆炸相同的因果能力,所以,氰化物不能引起死亡。
”这个推论很显然就不正确的。
塞尔的推论从本质上看就等于说,如果a可以引起b,那么只有a才足以引起b。
这表明了塞尔的推论并不优于下面这个推论:
所有运转中的大脑都可以引起精神状态,数字计算机不是运转中的大脑,所以没有任何一台数字计算机可以引起精神状态。
现在问题似乎清楚多了。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 重回 中文
![提示](https://static.bdocx.com/images/bang_tan.gif)