上文已经说明了与真实环境的交互问题,但不是所有的计算和模拟都与现实世界的现象结合得那么紧密。研究可以在计算和表达方面进行调整,而不是直接照搬现实。人工智能领域的研究人员尝试通过计算机编程来模拟人类的智能行为,但是他们要探讨的是人类智能行为背后所蕴含的深层理念,而不是简单地编写程序。例如,Illington大学人工智能系的Passington博士区分了“擅长编程的人和善于把握理念的人,而我已经成为后者。如果需要解决某个问题,我或者像我一样的人会思考不同的解决方案,并尽快做出一个粗略的程序。如果思路可行,那么再交给其他程序员来接管和完善”。研究工作的核心是表达,而且自20世纪70年代出现了符号主义人工智能后,这在一定程度上是对行为主义的重要颠覆。在符号主义的影响下,表达的重点从外部可观察的现象转变为内在的心理状态。对于那些认可符号主义人工智能的研究人员来说,心理活动被认为是一种可以进行计算的活动,主要通过符号和符号运算来把握(Adam,1995a,1995b)。由此,这种新的认知方法的支持者们认为,可以在计算机上用符号表现智能(Newell,1990);同时,最强有力的观点强调了数字计算机和人类思想之间的等价性(Pylyshyn,1984)。
这一立场的拥护者,如Yowford大学的Subonadier博士认为,映射人类的思维过程是有可能的。他们把人类的大脑看作一台复杂的计算机,并且把神经网络理解为“一组数字化的计算模型,其中包含很多变量,这些变量根据特定的规则发生变化,而规则受到某些类似程序中的参数的制约……除了它设置的方式与普通的计算机非常不同之外,其他都很相似”。
人工智能中还有一派是连接主义,这一派的特点是努力地映射具体的认知行为。它通过一个反映大脑神经元放电的系统来模拟知识。Yowford大学的博士研究生Russ Martins认为这个方法是通过应用神经网络来“建立认知模型。传统的认知模型本质上是黑箱方法,运用这种办法可以把理论结构标记为短期记忆、长期记忆,还可以在这些黑箱之间画上箭头,这就构成了探索性理论。(连接主义者们)会说,更像大脑的模型更适合于普遍的认知活动理论”。然而,鉴于我们对人类、动物和思维的认识还很有限,在Russ看来,连接主义“最终做的实际上是在他们画的圈圈里面创造了许多小的黑箱,而且有更多的小箭头”。他们尝试映射和表达智能的努力引出了关于思想本质的哲学问题,来自Illington的Harme博士对此表示赞同,他在做的研究工作是为机器人和人工智能建立联系,他将机器人科学的研究目标描述为:“给机器一些想法,或者如果你愿意的话也可以说赋予机器以思维。(我的研究兴趣是)思维的哲学,因为如果你想做一些类似于让机器思考的事情,显然你必须理解思考过程的要素,也必须知道要把哪些部分放进机器里面。”为了做到这一点,在思考的必要组成部分这个问题上,必须做出一些假设。Harme博士认为,任何超出基本层次的思考的先决条件,都可能超出了目前人们对于思考的理解。他说:“人工智能似乎能够令人满意,因为它至少可以做大量的思考而且在思考过程中不掺杂任何情感因素。但如今,人们已经认识到这在终极意义上并不是正确的,最终可能还是要运用情感才能去做最长远的和最有深度的思考。可是如果我们必须在机器里放入情感,现在还不知道该怎么做……我们可以让机器不带感情地去思考,因为我们预先做了假设——假设思考是一种确定的心理模式,至少在某种程度上,思考和情感可以完全被分离。”
即使可以精确地计算思考的所有维度和参数,但是将这些全部应用在机器人身上也是不切实际的。Illington大学的Waite博士所做的机器人研究是基于对动物行为研究之上的,他认为:“当然,没有人真正知道(动物的大脑是如何工作的),最终我必须拿出一些可以计算的东西,而且可以放在机器人的身上——我不可能在机器人的大脑里放入10个神经元,因为这里没有足够的计算空间,我甚至一个都不能放。”此外,学科间的界限及其对跨学科交流的阻碍,也大大增加了先理解后表达的困难。对于Yowford大学的博士研究生Christine Helsgood来说,不同学科间的关系对于表达的任务有着重要的影响。在她自己的研究中,她遭遇了“与生物学者谈论有关生物神经网络的巨大困难,因为两个学科的学者在所有事物上都使用不同的语言”。
在试图表现思考方式的人工智能中,有一个应用领域聚焦于基于知识的系统的开发。基于知识的系统,通常被称为专家系统,其基本原则是构建软件系统来表达某一特定领域的“专家”的知识。正如Collins(1990)观察到的那样,这一系统的理想目标是在某一特定领域取代专家,从而可能使专家成为多余的人。Illington大学的Hackington博士描述了专家系统是如何构建的:“首先要了解某一特定领域的专家们具有怎样的解决问题的能力,或者只了解他们的部分能力,然后试着用一个计算机程序来表达这种能力,接着就可以复制他们的行为了。在很多年前,就有研究人员开发出了这么做的标准方法。”Hackington博士很看好专家系统的应用前景,因为它们具有很强的应用潜力:“为了更好地表达管理决策,研究人员们首先要了解当地日常业务中管理决策的情况,然后把这个表达带回到英国,再补充一些专家通常会提供的信息,这里明确补充了专家们所说的管理决策的要素。然后再把修订后的表达带回到当地,这样就可以给人们提供一个低成本版本的专家意见,也会使表达更符合当地的实际了。”Illington大学的博士研究生Helen Nagle说明了她正在研发的一个专家系统的应用潜力:“在此想法中,我的兴趣在于为发展中国家建立一套维护系统,做一个能提供帮助的工具。具体想要建立的是地方专家依靠自己就能建立的医疗专家系统,这样他们就不需要第一世界的工程师参与其中了。”(www.daowen.com)
专家系统不仅应该如实地表达合适的选项,而且还必须是对用户友好的。来自Illington大学的Hatchett博士指出,如果专业人员不使用这个系统的话,那么系统的“专家性”到底如何就没有意义了。提到他开发的医学诊断系统,Hatchett博士解释说:“对于医疗从业者来说,新的医疗技术通常是不受欢迎的,除非它使用非常简便,用户界面是否友好比系统的实际功能要重要得多。所以很多技术都是非常基础性的,但是要给它们做一个非常华丽的包装,以使它们更容易被使用,或者是使它们更容易被接受,或者使它们看起来更可信赖,这些当然都是很重要的,而且是真正事关我们如何切实增强系统品质的问题。”Helen Nagle在谈到如何评价其正在开发的程序时,就意识到了争取用户的重要性:“我会对系统设计的理念本身进行单独评估。具体做法是,我不仅会和他们(潜在用户)交流关于建立医学知识获取系统的整体想法,也会交流我做过的具体实现方案和具体工作方式。我想知道他们是否认为这是一个好主意,他们是否能够理解这个理念,以及他们是否真的能使用这个理念。做完交流工作后,我会要求他们使用一下系统,并在他们使用系统之后,再问一次与之前一样的问题,以便了解他们是否了解了系统的工作方式,他们是否觉得系统有用,他们是否愿意用系统来做事情……我认为更重要的是软件背后蕴含的理念。我的意思是,如果我得到的评价显示软件是垃圾,但理念是好的,那我也会同样感到开心。”
在专家系统概念的背后其实是认识论,这种认识论认为专家的知识应该被放到系统中,而且这些知识将以硬科学事实的形式存在(Adam,1995a)。这一立场的假设使专家之间达成了较多一致,且在感知系统内容和行动方式上存在共识。Illington大学的博士研究生Julie Kylie解释了为何模型给出的建议和信息可能不会被普遍接受。她的研究工作就是试图解决观点之间的分歧:“你要从不同的人那里收集知识,在你真正把专家知识放入计算机之前,规范的做法是要努力在不同观点中找到一个共识,事实上我感兴趣的是如何执行不同的观点;然后要试图在系统内部建立推理机制,从而认识不同观点的差异,并寻找解决它们之间冲突的可能方法。”Julie的模型是建立在其收集的数据基础之上的:“我收集数据是通过让人们谈论温室效应以及表达他们的观点。我认为,可以对不同观点进行逻辑分析,可以从整体论证结构的角度来判断这些观点的合理性,也可以对提出的解决方法以及达成的共识进行逻辑分析。”她知道,自己开发的解决意见分歧的计算程序能否成功,取决于它符合实际情况的程度,即“人们如何讨论事情、表达观点、质疑彼此,以及人们已经准备要说‘对,好吧,如果我们抛弃在电视上听过的东西,认为这是垃圾,我仍然认为有合理的理由相信它……’”。Julie所采用的研究方法背后的假设是认为存在一个普遍的理解或能够达成一个共识的观点。这一点是这个学科文化中最重要的组成部分之一。为了做出一个简化的表达系统,必须先做一些基本的假设,以这些假设为基础再开展研究工作。这里的假设实际上关系到知识的根本性质,就像Julie Kylie所建立的专家系统,依赖于其预先的假设,即专家间存在共识。但专家间是否存在共识,这本身就是一个有争议的问题。正如Collins(1994:502)所指出的那样,我们没有理由期待专家们彼此认可:“理性的人总是有分歧的:那些受过高等教育的、特别聪明的、最正直的专家总是不同意彼此的意见。”然而,那些构建专家系统的研究生们和学者们所尝试进行的表达工作,却搁置了这些激进的质疑,编写程序的信念以自愿终止怀疑为基础。
此外,人工智能的学科文化也建立在对知识的低度社会化的认识上。这与Collins等科学知识社会学者的观点形成了鲜明的对比。Collins(1996)已经说明了科学知识社会学的根基是如何深植于与知识普遍性有关的学术问题中的。Collins(1995)认识到人工智能和科学知识社会学都将知识作为研究的对象,而且注意到人工智能领域学者们的研究发现引起了那些在知识领域工作的学者们的广泛兴趣。但与此同时,他也承认自己并不认可人工智能研究的基本主张,因为他自己的研究工作源自另一种认识论立场,即在科学共同体中定位科学知识,而不是将其作为个人财产。智能机器的存在与知识科学的基本前提是矛盾的,因为机器不可能构成一个共同体或成为一个社团的成员(Collins,1990)。正如Collins(1990:6)指出的,这是在“还原论望远镜的错误一端”,因为智能机器不是由社会群体组成的,而是由一些信息组成的。这种看待知识的方式对智能计算机的发展潜力是有影响的。换言之,一台由专家指导的计算机与社会化的人类是不一样的,因为知道如何去做一件事情和实际做一件事情通常是无法截然分离的。但是,对于人工智能的研究目的而言,将这两者分离则是至关重要的。符号主义人工智能的基本假设是,人类的知识和智慧可以被表达为一套规则,其中最主要的组织特征就是逻辑。来自Illington大学的Passington博士解释了工作的原理:“要从一个自然语言过程开始,然后迅速进入逻辑。有了一些设想后,就可以从你对逻辑的理解做出推论,并把那些对于自然语言的推论反馈给计算机。”然而,任何完全依赖逻辑系统的研究方法,都否认了事物发生的背景或某些话语产生的语境的合法性(Nye,1990)。人工智能对于命题知识的强调,或换句话说,人工智能强调以逻辑命题或规则形式来表达知识,引发了来自现象学立场的批评(Dreyfus,1979,1992),因为它没有认识到常识知识和技能的重要性。作为最伟大的批评家,Dreyfus和Dreyfus(1986)强调了人工智能不可能表达所有的技术窍门、兴趣、情感、动机和身体能力,而这些共同构成了人类。
在知识生产这个具体方面,人工智能也存在一些自相矛盾的地方。在类似于人工智能的学科中工作的年轻学者,会受到一种特殊的学科文化的濡化,对他们中的大多数人来说,进入这个领域要经历一次“转变”(见本书第三章)。他们的工作方式与研究团队的学术构成和知识构成紧密相关,而另一方面,他们希望实现和复制的知识模型,本身又依赖于对专家知识进行理想化的个人主义表达。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。