理论教育 基于规则的推理方法中的图形化支持

基于规则的推理方法中的图形化支持

时间:2023-06-28 理论教育 版权反馈
【摘要】:而现在已经有了几个很突出的而且很成功的应用,如前面章节所讨论的XCON,实践者和研究者同样都认识到传统的专家系统用户界面太严格,不容许用户对基于知识库的假设和推理的理解。基于这些响应,MYCIN会给出一个诊断,可能是细菌感染并且建议适当的治疗方法。一个能够解释自己行为的智能系统被认为是具有解释能力的。本章给出许多图表用户界面的实例,这种界面能提高系统的透明性和灵活性。

基于规则的推理方法中的图形化支持

近几年来,关于专家系统的许多讨论就是在用户界面的灵活性方面是否能取得更大的进步。而现在已经有了几个很突出的而且很成功的应用,如前面章节所讨论的XCON,实践者和研究者同样都认识到传统的专家系统用户界面太严格,不容许用户对基于知识库的假设和推理的理解。实际上,用户被迫将知识库作为一个黑箱来对待。而一些有限的解释形式是可用的,但通常不是很容易和直观地去理解一个给定的输入集为什么并且如何会产生一个最终的期望输出。尤其用户在由专家系统作出决策从而解决问题的策略理解上存在困难。

例如,在一个典型的MYCIN咨询公司,一个用户(典型的一个医生)会回答关于病人数据的问题,如症状、检查结果和病人特征等。基于这些响应,MYCIN会给出一个诊断,可能是细菌感染并且建议适当的治疗方法。但是,从用户的角度来看,系统看起来好像是在问一系列无关的问题,与被问的相关性方面没有任何意义。简单地说,由于专家系统缺乏解释能力,所以用户在系统如何产生这种建议不能形成一个合适的构思模型。

在第1章中,我们已经精确地定义了解释能力是什么。一个能够解释自己行为的智能系统被认为是具有解释能力的。两个系统特性与理解解释能力相关。一个是系统的透明性,即指理解系统内部机制的能力,这样它就不完全是一个黑箱。第二个特性就是系统的灵活性,即指用户界面的特征,它使得用户界面更灵活和便于使用。对系统灵活性有贡献作用的特征包括一个更自然的用户和计算机的交互,反馈的构成,当错误发生时的易于恢复性,显示细节层次(间隔尺寸)的能力,处理漏掉和不完全数据的能力,显示多层表示的能力(作为回顾,请参阅第1章的讨论)。(www.daowen.com)

解释能力经常是由系统设计者给出一个简短的说明,但它是一个很重要的需要考虑的设计问题,因为它能增加一个专家系统建议的信任度和接受度[1]。一个用户会对专家系统的建议产生怀疑(不是经常发生),他或她应该能够要求一些对这个系统为什么和如何得到相关结论的解释。例如,一个被专家系统建议所困惑的用户,可能希望找到如下一些问题的答案:运用了什么规则,为了得到这个结论采用了什么方法和解决问题的策略,该建议有多么健全——也就说,如果一点数据的修改它会变化吗,什么域原则导致这样的结论,实际上,一个人类专家有规律的与顾客进行双向交流,并不是简单地收集数据然后提出建议(像法令一样)。我们应该期望从一个计算机程序中找到相同点,该计算机程序的目的就是人类专家的行为,其中之一就是使用户相信它的建议是合理的和正确的。

本章的中心论点就是更具解释能力的用户界面能使用户在专家系统如何工作方面更容易获得一个好的概念模型。从而用户将会更有效地解决问题,并能以更灵活和更智能的方法使用专家系统。本章给出许多图表用户界面的实例,这种界面能提高系统的透明性和灵活性。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈