理论教育 满足过失要求:客观与主观的关系

满足过失要求:客观与主观的关系

时间:2023-07-31 理论教育 版权反馈
【摘要】:“理性人”是为了用于对比而建立的一种心理结构。因此,理性人的客观标准若要匹配任何特定情况,则必须具有一定程度的主观性。因此,与特定案件相关的理性人并不是客观主义的一般标准,而是包括个体犯罪人的主观反映。为了满足过失要求,人工智能实体必须作出不合理的决定。相关的考虑因素不应超过方程中的项,它们的适当权重则是这些项的组合。

满足过失要求:客观与主观的关系

“索嘉:是什么阻止你杀人?

鲍里斯:谋杀是不道德的。

索嘉:不道德是主观的。

鲍里斯:是的,但是主观性是客观的。”

——黛安·基顿饰演的索嘉和伍迪·艾伦饰演的鲍里斯·格鲁申科,电影《爱与死》,联美电影公司,1975年。

关于事实要素要件的过失模板的核心是缺乏对事实要件的意识,尽管有能力形成这种意识,且一个理性人能够并且应该意识到该要件。如前所述,缺乏意识自然是意识的反面,而意识是故意所要求的。[281]因此,若要认为某个人意识到某些事实数据,则要同时满足两个条件:(1)通过感官吸收事实数据;以及(2)在大脑中创建关于该数据的总体印象。若缺乏上述任何一个条件,则不认为该人形成意识。

缺乏上述一个或两个条件,则可能导致未形成意识。如果事实数据没有被感官吸收,或者如果它被吸收但没有创造出相关的总体印象,那么这种情形被认为是没有意识到事实数据。在刑法语境中,意识是一种二元状态;因此,不承认部分意识。如果意识过程部分存在,但该过程尚未完全完成,则认为该人对相关事实数据未形成意识。这对自然人犯罪人和人工智能犯罪人都是如此。

由于缺乏意识被认为是不意识,这种情况必须发生在犯罪人有能力形成意识之时,且一个理性人能够并且应该意识到。这是两个独立的条件:(1)拥有形成意识所需的认识能力;(2)一个理性人能够并且应该意识到事实数据。第一个条件与犯罪人的身体能力有关。如果犯罪人缺乏这些能力,那么不管他犯了什么罪行,都不会因过失追究其刑事责任,正如我们不能惩罚盲人看不见一样。

因此,过失犯罪人只是那些有能力形成意识的人。这对自然人犯罪人和人工智能犯罪人来说,都是如此。因此,要因过失犯罪追究人工智能实体的刑事责任,该系统必须具有形成意识的能力。缺乏这种能力的人工智能系统则不应为过失犯罪承担责任,自然也不能为故意犯罪承担责任。这些能力必须根据人工智能系统的一般特性来证明,而无论目前案例的情况如何。

如果我们已经确定犯罪人没有意识到相关的事实数据并且他有能力意识到,那么要构成过失犯罪,我们仍必须证明,在类似的情况下,理性人能够并且应该意识到这些事实数据。“理性人”是为了用于对比而建立的一种心理结构。虽然在一些其他部门法中,理性人指的是比普通人更高的标准,但在刑法中,它指的是普通人。[282]不同的社会文化,在不同的时间和地点,我们赋予理性人不同的内容和品质。

理性人应该反映特定社会的现状,而不是被法院用来改变现状。该标准涉及本来应该发生的认识过程。理性人是基于两种认识活动方法来进行评估的:(1)他应该顾及所有相关的考虑因素;(2)他对这些考虑因素给予适当的权重。因此,忽视相关考虑因素被认为是不合理的;在顾及所有相关考虑因素之后,也必须对这些考虑因素进行适当地权衡,才能使行动被认为是合理的。

一般来说,考虑因素的相关性及其适当的权重应当由法院事后予以确定。普通生活情形的复杂性和多样性使我们无法描绘一般类型的理性人。这种类型的理性人是纯粹客观的,有时也不太现实,并且与现实生活中的诸多情况无关。因此,理性人的客观标准若要匹配任何特定情况,则必须具有一定程度的主观性。主观设定(subjective settings)正是个体犯罪人与“理性人的客观标准和一般标准”之间的联系。

因此,理性人不仅应按照一般抽象人的标准来评估,还要适应个体犯罪人的具体情况。我们期望不同的人作出的行为也不同。即使在同样的情形下,经验丰富的律师与经验不足的律师作出的行为也不同。这对飞行员、司机、医生、警察以及(事实上)我们所有人来说都是如此。此外,在不同情形下,同一个人作出的行为也不同,对考虑因素的权衡也不同。士兵在遭到敌人致命攻击的紧急状况下的行为,与他在常规训练之时会有所不同。

因此,与特定案件相关的理性人并不是客观主义的一般标准,而是包括个体犯罪人的主观反映。[283]在紧急情况下,具有10年经验并利用有限资源进行手术的外科医生,应当与具有相同属性的理性外科医生进行比较。与之比较的相关属性及其内容和效果由法院决定。为此,法院可以求助专业人员的专家意见。

理性人形成一个合理性范围,包含特定情况下所有类型的合理行为。假设是在这些情况下存在多种合理的行为方式,只有偏离合理性范围才能构成过失。当事实数据与行为的结果相关时,结果发生的可能性被认为是不合理的风险。在这种情况下,承担不合理的风险被认为超出了结果的合理性范围。[284](www.daowen.com)

正如刚才所述,合理风险和不合理风险的评估方式与理性人和非理性人的评估方式相同。为了使风险被认为是合理的,个体必须顾及所有相关的考虑因素,并对上述考虑因素给予适当的权重。基于这些考虑因素,如果承担风险是可行的选择之一,那么风险被认为是合理的;如果不是,风险则被认为是不合理的。为了满足过失要求,人工智能实体必须作出不合理的决定。最终的问题是,一台机器能否是理性的,或者也许是,一台机器能否是非理性的?

从分析的角度来看,机器的理性和人类的理性没有什么不同。两者都必须顾及相关的考虑因素,并对上述考虑因素给予适当的权重。这很容易成为一个计算问题。相关的考虑因素不应超过方程中的项,它们的适当权重则是这些项的组合。如果这样进行编程,那么方程可能是不变的。但是,机器学习的特性能够对此进行改变。正如我们已经讨论过的那样,机器学习是一个从诸多特定案例进行归纳的概括过程。[285]机器学习使得人工智能系统能够不时地改变方程。

实际上,有效的机器学习几乎每次在分析给定的案例时,都应该会改变方程。随着我们的生活经历变得更加丰富和广泛,我们对世界形成印象的过程也是如此。没有机器学习,方程保持不变,则系统变得无效。不能进行机器学习的专家系统与坚持不更新自己知识的人类专家没有什么不同。机器学习对于人工智能系统的持续发展至关重要。

当人工智能系统首次被激活时,其方程和项由人类专家编写,他们决定在各个情况下何为理性行为。在分析一些案例之后,系统开始确定例外情况、更宽泛和更狭窄的定义、全新的因素以及与现有因素之间的全新的联系,等等。人工智能系统通过重新制定相关方程来概括从各个案例中吸收的知识。我们用术语“方程”来描述相关算法,但它不一定是数学意义上的方程。

重新制定方程增加了人工智能实体未来作出不同于过去的决定的可能性。这种归纳过程是机器学习的核心,方程的改变每次都会产生不同的正确决定的范围。例如,如果医学专家系统在第一次激活时,就获得普通感冒和流感的症状列表,那么该系统只会根据这些症状作出诊断。但是,在接触更多病例后,系统学会考虑其他症状,而这些症状可能对于区分这两种病情至关重要。

如果系统需要推荐医疗方案,那么诊断不同之时,医疗方案则会有所不同。有时,专家系统将无法“确定”,因为症状可能与一种以上的疾病相匹配,系统将根据对各种因素的测量和分析来评估概率。例如,专家系统可能确定,患者可能患有普通感冒的概率是47%,患者可能患有流感的概率是53%。处理这些概率可能是人工智能系统发生过失的原因,也可能是得出错误(既包括确定的错误,也包括不确定的错误)结论的原因。在结论错误的情况下,系统可能是确定性的,也可能是错误地评估概率。

错误可能是由于方程的不利改变、纳入考虑的错误因素、对某些因素的忽视或对某些因素的错误权重造成的。这些错误是机器学习过程中错误的副产品,或者更准确的说,是事后错误的副产品。只有在作出决定之后才被认定为是错误。人类倾向于从反复试错的经验中学习。从分析的角度来看,在这种情况下,机器错误和人为错误属于同一类型。对于自然人和机器来说,理解错误及其原因以及将来如何避免错误否定都是学习过程的一部分。

问题是,在这种情况下,什么是合理的决定?关键问题是,根据系统基础事实数据的初始状态以及通过机器学习获得的经验,理性人是否能够意识到相关的事实数据?衍生问题是,这个理性人是谁:自然人还是机器?正如我们已经讨论过的,如果我们接受“过失犯罪的客观性在某种程度上是主观的”这一概念,那么理性人必须具有与犯罪人相似的属性。只有这样评估犯罪人的决定的合理性,才不会造成不公正。

因此,根据这一概念,如果犯罪人有能力进行机器学习,那么理性人也应如此。在确定人工智能实体的决定的合理性时,理性人应当是一个理性的相同类型的人工智能系统。若人类程序员、操作员和用户得以逃避刑事责任,并将刑事责任推给发生错误的机器,则这种做法可能会存在问题。对于医务人员而言,上述做法非常“便利”。这意味着:如果使用专家系统并遵循其建议,此时若该系统发生错误,则应由该系统单独承担刑事责任。但是,法律上的情形并非如此简单。

为人工智能系统分配职位、使用人工智能系统并遵循其建议等的决定,同样都有可能构成过失犯罪。人工智能系统能够满足过失要求,但这并不能免除其他涉案人员的刑事责任。使用人工智能系统的决定本身可能就需要承担刑事责任。例如,如果决定是在充分意识到系统可能犯下特定错误时作出,而且这些错误导致死亡,那么自然人的决定可能受到谋杀罪的指控。如果没有这种意识,但是处在类似情况的理性人可能并且应该意识到这些风险,那么这个决定可能会遭到过失致人死亡罪的指控。

对理性机器的评估与系统的机器学习特性有关。对过失犯罪追究刑事责任是基于对导致错误决定的机器学习过程的分析。人工智能系统自身保存的记录则是分析的基础。但是,在机器学习框架内,决策过程的合理性可能是以专家意见为基础。在自然人犯罪人案件中,正是如此在法院中证明过失。用专家意见来证明或反驳人类过失的情况并不少见。

例如,当医疗专家系统认为普通感冒的概率为47%而流感的概率为53%时,医学专家可以向法院解释为何对目前案件而言这些概率是合理的或不合理的,计算机科学家可以根据机器的学习过程和现有数据库向法院解释这些概率的形成过程。因此,法院必须提出三个问题:(1)人工智能系统是否没有意识到事实要件?(2)人工智能系统是否有能力意识到事实要件?(3)一个理性人能够意识到事实要件吗?

如果这三个问题的答案都是肯定的,并被证明能够排除任何合理怀疑,那么人工智能系统已经满足过失犯罪的要求。如上文所述,能够形成故意犯罪中的意识的人工智能系统,[286]在技术或法律上,都不局限于仅仅形成过失犯罪中的过失,因为过失犯罪要求的是比故意犯罪更低水平的心理要素。因此,过失与人工智能技术相关,并有可能在法院中予以证明。但是,我们仍然必须回答谁应对这类犯罪承担刑事责任。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈