Site hosted by Angelfire.com: Build your free website today!



 
   第一节 人机大战:计算机用什么方法战胜人类
 
   深蓝战胜卡斯帕罗夫意味着什么?
 
   北京时间1997年5月12日凌晨4点50分,美国纽约公平大厦,当IBM
 公司的“深蓝”超级电脑将棋盘上的一个兵走到C4的位置上时,国际
 象棋世界冠军卡斯帕罗夫对“深蓝”的人机大战落下帷幕,“深蓝”
 以3.5:2.5的总比分战胜卡斯帕罗夫。
 
   作为人类最伟大的棋手的卡斯帕罗夫在国际象棋棋坛上独步天下
 ,无人能敌。前世界冠军卡尔波夫号称是唯一能与卡斯帕罗夫抗衡的
 棋手,但在两人的交战史上,每次都是卡斯帕罗夫取胜。而其他的棋
 手,比如世界排名第二的印度棋手阿南德,则更是无力撼动卡斯帕罗
 夫的王者地位。可是,“独孤求败”的卡斯帕罗夫却在与一台电脑的
 较量中败下阵来。这意味着什么呢?
 
   人类制造的工具早已在体力和感知能力上超过了人类,而人类唯
 一与其他生物相区别的特点——智能如果也被电脑超过,这可不是一
 个好兆头。这是否意味着,人类自己制造的工具将最终超过自己,给
 人类首先带来福祉继而带来恐惧的技术是否会外化为一种实物(也许
 就是电脑)进而统治人类呢?
 
   也许还没有那么夸张。卡尔波夫在谈到人机大战时说:“卡斯帕
 罗夫在人机大战中失利的主要原因是他开始去适应计算机。他与计算
 机下棋特别困难,因为他下棋靠的是根据盘面实际情况作出决断和虚
 张声势,而后者对计算机不起作用。第二盘棋结束后,卡斯帕罗夫开
 始胆怯了,下棋时开始琢磨一些非自己惯用的着法,因此导致失利。
 ‘深蓝’战胜的只是一个人,而不是人类。这台计算机是可以战胜的
 。”“深蓝”战胜卡斯帕罗夫这一事件到底是否意味着电脑的“智能
 ”已经在某些方面超过人类了呢?要对这个问题作出回答,需要澄清
 几个不同层次的问题。首先,国际象棋是不是人类智能某个方面的重
 要体现?其次,“深蓝”在人机大战中作出决定时,它所依据的方法
 与人类的思维机制有无重大区别?也就是说,如果“深蓝”的“思维
 模式”与人类的思考方法并不相同,但它所表现出来的弈棋能力确实
 超过任何一个棋手的话,这能否说“深蓝”已经有了某种程度的“智
 能”?
 
   博弈问题一直就是人工智能领域的一个重要研究方向。下面,在
 介绍博弈程序发展的同时,我们看看人工智能研究的历史和发展中遇
 到的问题。
 
   人工智能中的博弈问题
 
   1956年夏季,来自数学、心理学、神经学、信息论和计算机研究
 领域的一些学者在美国达特码斯大学召开了第一次以人工智能为名义
 的研讨会。会议主题是探讨人类各种学习和普通智能特征的基础,以
 及如何在原理上进行精确的描述,以便使计算机进行模拟。这个聚会
 标志着人工智能这一学科的正式诞生。
 
   也在这一年,国际商业机器公司的塞缪尔(A. Samuel)研制成功
 了一种具有自改善、自适应能力的跳棋机,他利用对策理论和启发式
 搜索技术编制了跳棋程序。这个跳棋程序可以象一个优秀的棋手那样
 向前看几步然后再走棋,可以向人学习下棋经验或自己积累经验,还
 可以学习棋谱。这是模拟人类学习过程的一次卓有成效的探索。1959
 年,这个程序就击败了它的设计者,1962年又击败了美国一个州的冠
 军。
 
   人工智能研究在1956年的另一个成就是,美国的纽厄尔(A.
 Newell)、西蒙(H. A. Simon)和肖乌(J. C. Shaw)三人提出了一个称
 为逻辑理论家的程序(LT)。这个程序不是刻板的固定算法程序,而是
 模拟了人用数理逻辑证明定理时的思维过程、规则和所采取的策略、
 技巧以及简化的步骤。它在计算机中先存贮一些公理,然后用分解、
 代入和替换等方法来处理待证的问题。如果这些子问题最终能变换成
 已知的公理或已证明过的定理的形式,那么这个问题就得证了。纽厄
 尔等人用这一程序证明了罗素-怀特海《数学原理》第二章52条定理中
 的38条。值得注意的是,科学家们在研制这个程序的过程中使用了启
 发法,即他们根据人类的语言报告和行为表现,总结出思维活动的规
 律,再把这些规律编进程序,作为心理模型,进行计算机模拟。
 
   “蛮干”与启发法
 
   在人工智能初期研究成果的激励下,专家们变得信心十足。西蒙
 曾在1957年作出他的三个预言:1.在十年时间内,数字计算机将成为
 世界象棋冠军,除非按规则不许它参加比赛。2.在十年时间内,数字
 计算机将会发现和证明重要的新数学定理。3.在十年时间内,大多数
 心理学理论将以计算机程序或有关计算机程序特点的定量描述为形式
 。
 
   可是,人工智能研究的发展却并不那么让人乐观。我们现在已经
 看到,第一个预言迟到了30年才实现,而第二、第三个预言则恐怕早
 已为人们淡忘。我们知道,象跳棋这样的游戏,有一些按照中心位置
 力、前进等参数来确定棋步可能值的可靠方法,又由于棋子的相互阻
 挡,以及被迫吃子等固定规则,所以可走的棋步不多,我们有可能去
 考查二十步之内的一切可能合理的棋步。如果把这种方法移植到编写
 国际象棋程序上来,那么虽然原则上可以靠穷举双方所有可能的棋步
 来决策,但这不可避免地要遇到选择迷宫即指数增长的问题。跳棋中
 不同走法的数字是10的40次方,但在国际象棋中不同走法的数字却是
 25X10的115次方。另外,每个跳棋棋子的功能相同,因此可以相当准
 确地计算出一个明确的数值,而国际象棋中各个棋子的功能却不一样
 ,这样就做不到这一点。
 
   于是,提高计算机的弈棋能力就有了两种选择,一种是蛮干,即
 通过增强计算机的运算速度来解决成指数增长的走法问题,另一种则
 是将人类在下棋时的一些方法教给计算机。看来,只有从第二种方法
 寻求突破,才会让人相信人工智能研究的确在进展,前面在谈到逻辑
 理论家的程序(LT)时说到的启发法,就是试图从第二种方法寻求突破
 。
 
   心理学家对象棋游戏和对著名选手的观察表明,计算一盘象棋的
 各种可能走法对下好象棋并没有多大意义。只有在看出棋局中有某种
 特殊的情况时,比如王的阵地削弱或者对棋子有利时,有经验的棋手
 才计算不同的走法。由此可见对于下好棋来说,对棋局的总体把握和
 全局观念的估计才有决定意义。
 
   一些人工智能领域的专家也试图将象棋游戏的一些理论知识和实
 践知识输入计算机,以改进象棋程序的弈棋水平,比如输入如下的知
 识:“象不能进攻另一类色格里的棋子”或者“顶住对方孤兵的棋子
 不会受到兵的攻击”等等。他们想为计算机输入某种启发法,教计算
 机如何从跟高层次,从布局、战术、战略方面“思考”对策。但是,
 这实在不是一件容易的事。
 
   《计算机不能做什么》一书的作者雷德福斯(Hubert L. Dreyfus)
 引入边缘意识来说明人与计算机在弈棋时的区别,他说的“意识边缘
 ”是威廉·詹姆士提出的:时钟的滴答声,只有在它停止的时候才会
 被我们注意到。而在弈棋中,来自整个棋盘各部的提示,在停留于意
 识边缘的同时,使某些部分显得有利或危险,或值得考虑,这样就把
 注意力集中到这个部分。人在下棋时,有些概念具有很强的全局性,
 比如说,“已开辟的位置”、“中心的控制”、“制胜的位置”、“
 较弱的位置”、“闭塞的位置”等等。这就是研究人员对人类弈棋的
 经验作出的总结和找到的一些规律,但是要教会计算机这些抽象而不
 能形式化的概念,实在是太困难了。
 
   以上是人工智能的博弈领域在五六十年代遇到的困难。现在的情
 形怎样呢?“深蓝”的研究人员们是用蛮干的方法(提高芯片速度,
 增大计算机记忆的棋谱数量)使它战胜卡氏,还是教给了它更多启发
 法呢?我们不得而知。也许两种方法都有,但主要还是靠前者。因为
 从“深蓝”的设计者们的话中,我们发现他们突出地强调了“深蓝”
 的计算能力,比如装入了比先前快一倍的新程序,有32个独立的微处
 理器,每个微处理器的平均运算速度为每秒200万步,整个计算机达
 到了每秒2亿步的令人生畏的运算速度,6人专家小组曾向“深蓝”输
 入了100年来所有国际象棋特级大师开局和残局的下法,等等。
 
   卡斯帕罗夫是怎么看待他的对手的呢?他在《生活周刊》中这么
 说道:“电脑,一般来说是在分配的时间内尽可能计算眼前的应对步
 骤。由于象棋从本质上来说是一种蕴含着无限可能性的游戏,所以,
 即便是每秒能闪过一亿种位置情况的‘深蓝’,也是如此。电脑走棋
 的时候,总是在对一步棋带来的各种结果进行计算,然后选择最佳情
 况。又由于电脑对棋局的基本判断思路是斤斤计较眼前的得失,所以
 众所周知它们是功利主义的。”很明显,在卡氏看来,深蓝仍是在用
 蛮干的方法与他抗衡。
 
   既然计算机用“蛮干”的方法而不是以和人类类似的思路战胜了
 人类最伟大的棋手,那么我们怎样对待这种能力呢?它能说得上是有
 智能吗?它是否具有“思维能力”呢?
 
   其实,任何人对机器能否思维这个问题的回答,完全取决于他们
 对思维概念的理解和定义。信息论创始人申农曾说过,机器能否思维
 ,其答案完全依赖我们如何定义思维。要弄清机器思维的来龙去脉,
 我们还得追溯到图灵。  

   第二节 图灵检验引出的问题:机器能否思维?
 
   维纳曾说,“图灵也许是第一个把机器的逻辑可能性作为一种智
 力实验来研究的人。”1950年,英国的《心》杂志发表了图灵的文章
 :“计算机与智能”。文中写道,“现在人们对‘思维机器’的兴趣
 是由一种通常称作‘电子计算机’或‘数字计算机’的特殊机器引起
 的。”文章接着提出了“(这种)机器能够思维吗?”这样一个问题
 。为了作出判断,作者提出了一个被称作模仿游戏(imitation game)
 的试验。
 
   图灵的模仿游戏是这样的:玩这个游戏的有三个人,一个男人(A)
 ,一个女人(B),一个男女均可的提问者(C),提问者呆在与其他两个
 人相隔离的房间内。游戏要求提问者辨别出另一房间里的两人谁是男
 人,谁是女人。他只知道那两个人的符号是X和Y,在游戏结束时,他
 得说出“X是A,Y是B”或“X是B,Y是A”。提问者可以向A与B提出各
 种问题,比如“请X告诉我你头发的长短”,比如“请问Y,您的性格
 是什么类型的?”,以此辨别A和B的性别。A的任务是想方设法地使
 提问者作出错误的判断,而B的任务是帮助提问者找到答案。也许,B
 的最好对策是给出忠实的回答,比如“我是女的,不要听信A的话”,
 但这也无济于事,因为A也可以装出同样的回答来。
 
   现在的问题是,如果由一个机器来扮演游戏中的A的角色,而提
 问者的任务是辨别谁是机器谁是人,那么在这个新游戏中,提问者作
 出错误判断的次数是否会同从前由一男一女参加时一样呢?这样,机
 器能否思维的问题就转化为了这个挺有意思的游戏问题。如果提问者
 在一系列的这种检验游戏中,没有能力对人和机器作出区别,那么,
 这台机器肯定是通过了模仿游戏的检验。在图灵看来,也可据此判定
 这台机器是能够思维的。
 
   需要注意的是,图灵认为,他设计的这个检验是将智力和体力、
 精神与肉体截然分开的,所以在游戏中,提问者不能看到和接触到被
 提问者,也不许听到他们的声音。提问者提出的问题和被问者的回答
 都采用一种不同于人际交流方式的渠道进行传输,比如打印在键盘上
 ,或显现在显示器上。这样,机器和被提问的人不能展示他们的身姿
 和力量,却可以胡吹瞎侃,尽情作语言表演。一句话,这是一个纯粹
 的智力游戏。另外,图灵对“机器”这一概念做了明确规定:允许把
 任何一种工程技术应用到这台机器上来,工程师可以设计这机器,但
 可以描述不出它的运转方法;但用生物方法生殖和培养的人不算机器
 。图灵的规定实际上是说明,他在这个游戏中设想的机器就是指电子
 计算机。
 
   图灵设计的这个模仿游戏暗含了很多假设,引起许多层面的思考
 。如能不能从行为主义的角度判定机器能否思维,如是否存在(现实
 的或潜在的)解决用模仿游戏的术语描述的那种涉及大量事件的算题
 的算法。文章发表后引发了许多争论,后来讨论机器思维的诸多文章
 也都要谈到这个游戏,因此图灵的这篇文章标志着现代机器思维问题
 的讨论的真正开端。
 
   行为主义对人工智能研究的启发
 
   图灵检验的一个非常突出的特点是,它对思维的定义是从行为主
 义的角度出发的,也就是说,它并不要求那台接受检验的思维机器在
 内部构造上与人脑一致,而仅仅要求从外部功能,从外部表现来看,
 人们无法将它与人脑作出区分。而这一点,正是日后人工智能发展的
 一个重要思路。
 
   行为主义(Behaviorism)是在本世纪初兴起的一个心理学派,它
 是从动物心理学、动物行为的研究中形成和产生出来的。行为主义是
 针对当时正统的构造主义或构造派心理学(Structural psychology)
 与流行的机能主义或机能派心理学(Functional psychology)提出来
 的。在行为主义看来,构造主义要找的心理元素、机能主义要找的机
 能的原因,都是看不见摸不着的东西,都难以进行“客观”的研究。
 所以,行为主义者决心改造传统的心理学,不再用意识、情绪等心理
 概念,而代之以行为的概念。这样,心理学等价于对行为的研究。行
 为主义的创始人华生把有机体应付环境的一切活动统称为行为,而把
 作为行为的最基本成份的肌肉和腺体分泌称为反应,把引发有机体活
 动的外部和内部变化统称为刺激。这样,人和动物的全部行为都可以
 分析为刺激和反应。
 
   行为主义的研究方法给控制论和仿生学等技术学科的发展带来许
 多启迪。比如,仿生学方法一般经过三个步骤来实现:第一阶段主要
 是通过生物学研究来探索活体对象的功能和内部结构等各个方面;第
 二阶段是理解阶段,即通过建立数学模型和揭示出某些规律来理解获
 得的资料,它的进展关系到用简单的方法模拟活体对象复杂的运动形
 式的可能性;第三阶段是技术阶段,即由工程师研究出有效的、可实
 现的具体物理模型。在研究人脑功能的机制中,当人们难以弄清人脑
 的细致结构和它的具体功能之间的关系时,行为主义的方法就提供了
 一个解决方法。研究者可以避开这一困难,改变研究方法,从外部的
 行为加以研究,通过找寻其外部表现的刺激和反应之间的关系来寻求
 突破。而控制论也认为:“同是一个行为主义的分析,对于机器和生
 命机体二者都是可用的,不论行为的复杂性如何。”也正是从行为主
 义的角度出发,维纳探寻了机器与动物之间的相似性,而他的《控制
 论》一书的副标题也体现了这一点:关于在动物和机器中控制和通讯
 的科学。
 
   当然,行为主义也存在许多缺陷,受行为主义启发的控制论并未
 放弃对结构的研究。比如,克劳斯就认为,行为是与结构相联系的。
 控制论是通过对行为的分析和研究去探索结构的。通过行为、机能研
 究结构,这是控制论在方法论上的一个特点,这也克服了行为主义在
 方法上的局限性。
 
   脑模型与形式化问题
 
   让我们再回到图灵试验。哲学家们也许会怀疑仅仅在行为上的相
 似性,能否为智能属性提供充分的解释,可是对那些想要制造思维机
 器的技术人员来讲,图灵试验正是评价他们工作高下的一个标准。于
 是,科学家们可以继续研究智力机器,而哲学家们也可以把即使通过
 了图灵试验的机器称作没有思维。但是,人工智能的研究并不只是一
 个工程技术问题。它的进展不仅要依靠心理学的发展,受到关于“心
 ”的哲学的左右,它也对人类认识脑的构造、探究精神概念产生巨大
 的影响。
 
   人工智能的发展,要建立智力模型,探究脑模型与脑原型之间的
 相互关系,也就是研究从技术上设计出来的模型与脑的真实情况的关
 系。于是,脑模型与原型之间的关系值得注意。一般来讲,模型与原
 型之间的关系有三个主要方面。
 
   第一是相似性,而且这种相似性要有精确的规定和明确的表达。
 而这里指的相似意义很泛,既可以纯粹是外表的,也可以是内部结构
 的,还可以是行为上的。脑模型研究的相似性要求非常高,这给研究
 工作带来很大的困难。人脑是我们已知结构中复杂程度最高的,单单
 大脑皮层就有约140亿个神经元,神经元的树突和轴突又构成了复杂
 的联系组织,并且有许多联系是后天形成的。面对这样一个复杂的结
 构,要制造结构和功能都相似的模型是一个很难达到的目标。第二是
 代表性,即模型不仅可以在认识过程中代表原型,也可以在实际的意
 义上代表原型(在相似范围之内)。这样,模型本身往往也是研究的
 目的。第三是外推性。外推性一方面表现在从模型推得关于原型的信
 息,另一方面是指扩大相似性的范围,即人们总在研究过程中力图发
 现更多的相似性以解释原有的相似性。所以,人们在人工智能方面的
 研究也可能由脑模型的某些性质推断大脑的实际性质。这就会影响到
 从心理学和哲学角度对“心”这一概念的理解。
  


   塞尔的“中文屋子”
 
   针对强AI观点,不少学者提出了尖锐的批评。美国哲学家约翰·
 塞尔(John Searle,《皇帝新脑》一书将之译为约翰·西尔勒)设
 计了一个颇为有名的假想试验――中文屋子来反驳强AI观点。这个试
 验已成为当代西方哲学家在讨论身心关系、人工智能时经常引用的一
 个经典例证。
 
   塞尔说,设想一些计算机程序设计者设计出了一种能够使一台计
 算机模拟“理解”汉语的程序。比如,如果用汉语对这台计算机提问
 ,它会运用自己的存储器和数据库对这个问题作出合适的汉语的回答
 。假设这台计算机的答案和一个地道的中国人的答案一样,那么根据
 这个情况,能否说这台计算机已经理解了汉语?能否说它完全和一个
 中国人一样理解汉语呢?接着,塞尔提出了他假想的中文屋子。
 
   假设一个美国人被关在一个屋子里,他对汉语一窍不通,而屋子
 里有满满几筐汉字,而且有一本用英语写的用来处理这些汉语符号的
 规则,这些规则是按汉语的语法而不是语义,对符号的处理加以纯形
 式的规定。比如,规则中可能有这样的话:“从一号筐中取出‘甲’
 符号,将它放在从二号筐中取出的‘乙’符号的后面。”假设这时有
 另外一些汉语符号被送到屋子里来,这个人根据相应的规则将汉字送
 出屋外。假如他根本不知道送进屋来的这些符号就是屋外人的“问题
 ”,也不知道送出屋外的那些符号就是所谓“问题的答案”。此外,
 还假设那些程序设计家善于设计程序,而这个人又善于处理符号,这
 样,他的答案就和一个地道的中国人作出的回答没有什么不同。他在
 屋子里搬弄符号,用送出去的符号回答送来的符号。在这种情况下,
 能说这个人懂得汉语吗?
 
   塞尔用这个例子说明,如果通过适当的计算机程序来获得对汉语
 的理解力对屋中的人来说是不够的话,那么,对任何数字计算机来说
 也是不够的。“中文屋子”这个比喻的意义在于,计算机具有的是一
 种语法,而不是语义。而要理解一门语言,以至要完全具有心理状态
 ,就需要具备比仅仅一套形式符号更多的东西,就要具备一种释义,
 或者说那些符号都要有意义。而计算机的运算是按其执行程序的能力
 来定义的,而这些程序是通过纯粹形式就加以规定,也就是说,它们
 不具有语义内容。
 
   前面已经介绍了人工智能的形式化问题。的确,数字计算机的特
 点在于,其运算能被纯形式地表述。一种典型的计算机“规则”决定
 了一台机器如何处理某种状态,执行某种计算,比如擦掉一个符号,
 或打上另一个符号,然后进入另一状态。在塞尔看来,这些符号是没
 有意义的,它们不具有语义内容;它们不涉及任何事物。它们只能纯
 粹按照形式的或语法的结构加以确定。比如0与1只不过是数码,甚至
 不能代表数。而人心不仅仅是形式和语法的过程。根据一般的定义,
 我们的内在心理状态具有某种内容。比如,当一个人想起面包或饮料
 时,当一个人担心股市的走向时,在这种状态下,他/她的心理状态
 除了具有各种可能的形式特征以外,还具有某种心理内容。即使思想
 以一连串的符号的形式出现在头脑中,但是思想所包含的决不止一些
 抽象的符号串,因为符号串本身没有任何意义。如果人的思想要涉及
 任何事物,符号串也必有某种意义,使得思想能够涉及到那种事物。
 一句话,人心不仅是语法的,还有一个语义的方面。而计算机程序只
 是语法的,因此它永远也不可能代替人脑。
 
   塞尔本是一位以研究语言哲学问题著称的分析哲学家,正是这样
 的学术背景使他想出了“中文屋子”的比喻,也是同样的原因使他从
 语法和语义的角度对人脑和电脑作出比较。来自语言学的思考,的确
 给人工智能涉及的哲学和心理学问题提供了不少启发。
 
   第四节人工智能背后的哲学基础
 
   从笛卡尔以来,心身二元论日益困扰着现代人。一方面,我们对
 于人类自身和周遭万物有一些常识性的认识,而另一方面,现代科学
 又对整个物理世界作出了另一种体系化的描绘。两者存在深刻的矛盾
 。我们把自己视为宇宙间有意识的、自觉的、自由的、理性的行为者
 ,而科学告诉我们,这个世界上存在的只是无知觉、无意义的物理粒
 子。那么,我们怎样让这两种陈述同时成立呢?一个机械的宇宙怎么
 会产生有自觉自由意志的人类呢?那些无意识的物理粒子怎么会组成
 有意识能力的大脑呢?精神与物质是怎么联系在一起的呢?是笛卡尔
 的松果腺,还是那最终的依靠——上帝?
 
   人工智能的出现,并没有解决这一难题。将心身关系比作软件和
 硬件的关系,不过是强人工智能的哲学把意识和思维强加给了一切机
 器,这对问题的解决无济于事。强AI观点的哲学基础是,心与脑的关
 系就是程序与计算机的关系,软件与硬件的关系。心是纯形式的,脑
 是物质内容。而且,动物与机器在软件上是等价的,而硬件相对不重
 要。这种引入软件与硬件来类比心身关系的思路,是把早已混乱不堪
 的有关身心关系的讨论弄得更错综复杂,还是一语道破天机了呢?
 
   远距离人体传输与强AI
 
   人工智能的实际进展姑且不论,但它的确给一些科学家和科幻小
 说家带来了无穷的想象力。维纳在《人有人的用处》一书中曾经提到
 ,吉布林的小说《夜邮》(With the Night Mail)讲到人体远距离传输
 的问题。这个奇思妙想与强人工智能的哲学观点密切相关。

   让我们思考这样一个问题:一个人与另一个人的区别到底在什么
 地方呢?从物质组成上说,是组成他们身体的原子有什么不同吗?或
 是构成这些原子的电子、质子和其他粒子不同呢?有两个证据说明答
 案是“否”。首先,任何活人身体的物质都处于连续代谢的状态中,
 而脑细胞尤其如此。从出生以来,每个人的每个活细胞中的绝大多数
 原子以及身体的整个物质都已换过许多回了。其次,按照量子力学,
 任意两颗电子必须是完全等同的,质子和其他粒子的情况同样如此。
 
   如果把一块砖头中的电子和人脑中的电子互换,人脑不会有任何
 变化。把人的整个身体的物质内容和一间房子的砖头中的物质互换,
 也不会有什么变化。因此,把砖头和人区分的不是组成成分,而是这
 些成分安置的方式。
 
   设想通过一种装置把人体的物质成分的组成模式扫描一遍,把身
 体的每一个电子的准确位置和完整的特征都进行细致地记录,然后转
 化成信息存储下来,通过电磁信号远距离传输,比如从这个星球传输
 到那个星球。在目的地,运用当地的物质,在传输过来的信息的指导
 下,把人体重新装配起来,这样,不就实现了远距离人体传输吗?
 
   这个假想还有更多的推论。比如说,如果远距传输确实可行,那
 么在传输的两端,旅行者不就有了两个版本了吗?一个原版在出发地
 ,一个复制本在目的地。这样会发生什么呢?这位旅行者的“知觉”
 是否会同时处于两个地方呢?也许物理学定律会在原则上反对这种超
 距离传输。罗杰·彭罗斯就这么认为。他说,精神的奥秘必须和量子
 力学的奥秘联系起来。量子力学能产生经典物理学所不能产生的非决
 定性的效果。它禁止我们去复制那种被称为精神和思维的物质的组成
 方式而不破坏原先的态。所以,远距离传输人体的想法是不现实的,
 在原则上是行不通的。
 
   让我们看看强AI的观点与远距运送问题的关联。设想在传送的两
 端之间存在一个转换站,在这里把信息暂时存储然后再传送到目的地
 。那么,该“旅行者”的“知觉”是否会在这个存储仪器中呈现出来
 呢?强AI观点的支持者相信,事情就是如此。他们说,如果我们想问
 该旅行者任何问题,原则上这个仪器都可以回答,“只要”对他的头
 脑的适当活动进行模拟就可以了。这个仪器也就能通过“图灵检验”
 了。这正是强AI的观点,在考虑精神现象时,硬件根本不重要。而且
 ,所有对物理内容的描述都能由数字计算来仿照。这样,人类头脑中
 进行的活动就是一种算法,而这种算法可以由任何物质来完成。
 
   所以人工智能的另一个哲学基础是,思维可以用某种算法表示。
 
   在历史上,把推理作为人类精神活动的中心,把一切推理都归结
 为某种计算的想法一直吸引着西方思想家。
 
 
   把一切推理归结为计算的历史源流
 
   苏格拉底曾询问一个出于虔诚的原因准备告发他父亲是凶手的雅
 典人。苏格拉底说:“我想知道使所有行为变得温良的虔诚之心有什
 么特点......这样我便可以当作判断你的行为和其他人行为的标准来
 使用。”苏格拉底想知道的,就是现代计算机理论家们称作“有效程
 序”或“可以不断地告诉人们如何行动的规则”的那类东西。
 
   而柏拉图则把这种道德上确定性的要求概括成一种认识论上的要
 求。在他看来,所有的知识都必须可用任何人都能使用的清晰定义来
 表述。比如,靠味觉和直觉烹饪的厨师和靠灵感写作的诗人都没有知
 识:他们的所作所为不包含理解,因而也就不能被理解。但是,如果
 套用约翰·塞尔的分类,那么柏拉图所寻求的还不是语法的规则而只
 是语义方面的标准。他的规则是以人们理解基本术语意义为前提的。
 
   在《理想国》中,柏拉图说:理解(这是他在在区分知识的层次
 时使用的规则类层次)依赖于理性,理性运用辩证分析,并最终使用
 直觉,来把握基本概念的意义。这样,柏拉图就承认了他的规则不可
 能完全形式化。
 
   亚里士多德认为,我们很难找出一种公式用以确定一个人在遭到
 指责之前会在在错误的道路上走多远,走到什么地方。这种定义上的
 困难在各种感知对象中都存在,而程度问题与个别情况纠缠在一起,
 在个别情况中我们仅有的标准是感知。
 
   为了找出万物的行为规则和标准,只有消除对直觉和感知的依赖
 。伽利略找到了一条出路,他发现人们可以忽略物体的第二性质――
 如色声味等等依赖感官而产生的性质,而直接面对物体的广延性等第
 一性质,从而找到一种描写物质运动的纯形式系统。而这样的方法也
 逐渐被研究人类行为的思想家采用。
 
   认为能把全部知识形式化的信念很快在西方思想家中传播开来。
 
   物理学的辉煌成就迫使人文学者也力求使对于人类思维和行为的
 研究形式化。霍布斯是第一个清晰地把思维的句法概念表达为计算的
 人。
 
   他写道:“当一个人在推理的时候,他所做的只是在构想如何把
 部分相加成总和,因为推理......只不过是在计算......”莱布尼兹
 则认为,一旦找到一种通用的精确的符号系统,一种代数,一种符号
 语言,所有概念就都可以分解为数量不多的未加定义的原始概念,所
 有的知识就能够归在一起表达为一种演绎体系。基于这些数字和它们
 的组合规则,所有的问题都可以解决。到19世纪,数学家和逻辑学家
 乔治·布尔认为,推理即计算,他试图用符号演算来表达思维在推理
 活动中的基本规律,并创造了一种表达基本逻辑函数的二元代数,即
 今日所称的“布尔代数”。

   认知主义:人脑就是一个信息处理系统

   把一切心理过程归结为某种推理,假设任一种心理成果必有其理
 论的原因,这种观点的起因在于,人们找不到任何其他方式去理解心
 脑之间的关系。

   看看我们是如何解释一个人的行为的吧。设想某男爱上了某女,
 我们可以这么猜测:这是因为他觉得她温柔体贴,与自己的性格挺融
 洽。我们大概不会这么说:他爱上她是因为他的大脑处于某种状态,
 他的某些神经元使他作出这样的计算。这就是说,我们能用心理方面
 的词汇,像欲望、情绪和憧憬等词对人们的行为作出说明,我们也可
 以利用神经生理学的词汇对此作出说明。前者是符合常理的,而后者
 则似乎是科学的。

   因此,我们面对的是脑与心之间的鸿沟。20世纪里许多思想家试
 图添平这条沟壑,在心理与神经生理学之间架设桥梁。从行为主义到
 控制论,从结构主义到社会生物学,这些解决方法都不能令人满意。
 而人工智能的解决之道是,人与计算机是相似的,因此计算机能为心
 灵的真实图式提供启发。来源于认知心理学和人工智能研究成果的认
 知主义认为,思想是信息处理过程,而信息处理就是符号操作。这样
 ,认知科学的任务就是去描述脑的特征,但它不是在神经细胞层次,
 也不是在有意识的心理状态层次上,而是把脑功能作为一种信息处理
 系统的层次去描述。

   当然,认知主义也有一些理论基础。比如,语言学家乔姆斯基认
 为,如果各种语言都有某种共同特征,如果这些特征被人脑中的共同
 特性所制约,那么人的脑中就一定存在着一套极其复杂的普遍语法规
 则。正是由于把人脑和计算机进行类比,所以认知主义认为,如果我
 们学习一种语言的能力或辨认他人面孔的能力是一种富有意义的认知
 能力,那么这里必定存在着某种理论,它以某种方式内化于我们的脑
 中,构成了我们的认识能力的基础。

   但是,人类行为所遵循的规则和计算机遵循的规则是同一种规则
 吗?约翰?塞尔认为根本不同。在他看来,人类的许多行为根本不需
 要计算。比如,人类在行走时掌握平衡,人辨认亲友面孔的能力,根
 本就不需要大脑进行什么演算。而若要机器达到这些被人类视作微不
 足道的能力却非常困难。所以塞尔认为,在心与脑之间根本不存在任
 何层次。我们不要把计算机进行信息处理的形式和人类心理的推理形
 式混为一谈。

   第五节电脑如何影响人们对自然和自身的认识

   历史学家柯林伍德在《自然的观念》中认为,不同历史时期的人
 类是从不同的类比中得到对自然的整体理解的。比如,希腊人在自然
 界和个体的人之间作了类比,认为自然是一个有理智的机体。他发现
 自己是一个按照自己的意愿操纵身体运动的精神,于是就把这种观念
 推及宇宙万物,所以月下世界的物体往下落的原因在于,它们有向下
 的意愿。而文艺复兴时的机械自然观同样是类推的。它一方面基于基
 督教的创世和全能上帝的观念,另一方面基于人类设计和制造机械的
 经验。由于希腊人和罗马人都不是机械的使用者,他们只在小范围内
 使用石弩和水钟,所以这些机械还没有显著到足以对他们的世界观产
 生影响的程度。但16世纪以后,印刷机、风车、杠杆、水泵、滑轮、
 钟表与独轮车,以及矿工和工程师大量使用的机械,构成了日常生活
 的背景,每个人都懂得了机械的本质,制造和使用这类东西的经验已
 经成为欧洲人一般意识中的一部分。所以,人们很容易形成这样的观
 念:上帝之于自然,就如钟表匠或水车设计者之于钟表或水车。

   可以看出,柯林伍德认为,人类的制造物会反过来影响人类的某
 些观念。其实,关于人脑的观念,就有这个特点。比如英国伟大的神
 经生理学家谢灵顿认为,脑的运转与一个电报系统是一样的。弗洛伊
 德则常常把脑比作液压和电磁系统。莱布尼兹也曾把脑比作一台碾磨
 机。那么,计算机和人工智能的诞生又对人类关于脑的观念产生了什
 么影响呢?其实,前面的文字已经直接或间接地提到这个问题。比如
 ,人脑和电脑之间的联系和区别,人脑是否也像计算机一样是一个信
 息处理系统,等等。

   不同学科的学者们在讨论问题时把电脑和人脑进行比较,也许还
 存在一些臆想的成分。但计算机和其他智能机器的出现的确在改变一
 般人对许多问题的看法。谢里?特尔克(Sherry Turkle)是哈佛大学
 社会学与人格心理学博士,她对电脑与人的关系作过许多研究。她发
 现,玩电脑(电脑玩具和电子游戏)会影响小孩子对生命的看法。过
 去,儿童面对“什么是生命”这样的问题时,考虑的是这个东西是否
 不须借助外界的推力或拉力就可以“自己协调动作”。而电脑出现后
 ,他们对生命的问题就有了不同想法,标准变为,这东西能否“自己
 思考”,是他人设计的还是自创的,是否有认知能力,有自己的意图
 ,是否会欺骗。电脑改变了对生命的讨论。事实上,电脑对成年人的
 影响也是如此,只是结果不同。在程序设计电脑产生后,成人将人类
 的自动、自发、无须“程序设计”当成是人类与众不同的关键并认为
 进化是生命的中心。然而,今天的电脑在某些方面的确有进化的现象
 ,因此人们对上述信念又产生了怀疑。

   这不禁让人想起关于机器思维的一种定义方法,这种方法把目前
 机器还不能做到的事情定义为智能,只要机器做到了,就把他排除出
 智能的范围。例如计算能力,在古代,肯定是被认为只有人并且只有
 聪明人才能做到,但现在计算机在这方面却远远超过了人,所以计算
 被排除在人的智能以外。法国的控制论学家科萨就是这种观点。他把
 人的意识活动分为两类:纯粹自动化的和不是自动化的。所谓纯粹自
 动化就是人脑中进行的一种机械化过程,这种活动被机器所实现并不
 意味着机器能思维,而只说明这种活动不是思维。按照这种观点,现
 在有人把创造性定义为思维,有人把或然性作为思维的只要特征。可
 以看出,这种观点显示了一种墙头草似的态度,在人工智能的步步进
 逼下,它只能不断后退。而且,这种观点只问行为结果,而不考虑人
 与机器达到同样行为表现所使用的不同机制,因而没有任何启发意义
 。

   让我们再回到人机大战。1996年卡斯帕罗夫在与深蓝(DeepBlue)
 第一次交战后曾著文述说他在对战时“嗅到的新智能”:

   “下午4:45,在我与深蓝的开局对弈中,这个电脑棋手将一个卒
 子推到一个四面受敌的位置。这是极具人性的一着妙棋......我还以
 为区区一个电脑不会有这一着,以为电脑预‘见’不到局势上的结构
 变化的长远效应,以为它不会理解运筹卒子阵容的优劣。”......
 “后来我才明白其中的道理,‘深蓝’电脑的运算能力如此巨大,以
 致于它实际上算出了6着棋之后的救卒办法。电脑丝毫没有把丢卒看
 作是一种牺牲。于是问题就来了:如果电脑出此棋的原因和我出同一
 棋的想法截然不同的话,它走的算不算‘智慧’的一着?一个行动的
 智慧与否是否取决于谁(或什么)来行动?......”当电脑的功能越
 来越强大,这个问题会让每一个思考者难堪。(完)


    

返 回 || 学术论文选登||