理论教育 审判机器人:人工智能实体的责任

审判机器人:人工智能实体的责任

时间:2023-07-31 理论教育 版权反馈
【摘要】:谋杀是有意识并有意图地导致自然人的死亡。如果实施行为之时,具有完全的意识和意图,心理要素也已满足。最后,有一些人可能会觉得,若要对人工智能实体可能造成的事实伤害予以考虑、指责或归责,那么前文所述的意识概念可能太过于浅显。因此,对于人工智能的意识能力问题,我们无法提供一致的答案。对故意犯罪追究刑事责任是基于意识,而意识是心理要素要件的重要主导要件。

审判机器人:人工智能实体的责任

如果自然人犯罪人符合犯罪的事实要素要求和心理要素要求,那么他就应对该罪行承担刑事责任。在对其追究刑事责任之时,法院不需要审查犯罪人是否是“邪恶的”,或者所实施的犯罪行为是否具有其他特征。满足这些要求是追究刑事责任的唯一条件。其他信息可能会影响量刑,但不会影响刑事责任。我们更倾向于我们的刑事法律体系所采取的这种处理方式,因为“邪恶”和“善良”是主观事项。[200]不同的人看待这些术语的角度也不尽相同。[201]

在该语境下,事实要素和心理要素是中性的,不一定包含邪恶或善良的内容。[202]在本质上,满足事实要素和心理要素的要求要比发现邪恶更有“技术性”得多。例如,我们禁止谋杀。谋杀是有意识并有意图地导致自然人的死亡。如果个体事实上导致他人的死亡,那么事实要件要求就已满足。如果实施行为之时,具有完全的意识和意图,心理要素也已满足。因此,个体对谋杀罪承担刑事责任,除非可以适用一般抗辩(比如,正当防卫、精神失常等)。至于为何实施谋杀,对于追究刑事责任而言无关紧要。无论谋杀是出于怜悯(安乐死)或是出于邪恶,都不会产生区别。

这就是对自然人犯罪人追究刑事责任的方式。如果我们对人工智能实体也采用这一标准,那么我们也可以对人工智能实体追究刑事责任。这是人工智能实体刑事责任背后的基本理念,它不同于人工智能实体的道德责任、社会责任,甚至民事法人资格。[203]刑事责任的狭义定义使得人工智能实体可能成为刑法的主体。尽管如此,读者可能会感觉这种分析中仍然缺少一些东西,理由可能还不够充分。我们尝试用理性的论证来反驳这些感觉。

这种感觉可能是:人工智能实体遵循某个程序的能力不足以使系统作出道德判断和行使自由裁量权,尽管该程序可能包含一个非常复杂的规则系统。[204]这种感觉可能最终与犯罪人的道德选择有关。更深层的论点是:没有任何形式逻辑的系统能够自主地作出犯罪人可能面临的道德选择。对于这个论点,我们有两个回答。

首先,我们不能肯定形式逻辑系统具有道德盲目性。而且,道德和道德价值具有许多的类型。[205]目的论道德(如功利主义)探讨行为的功利价值。这些价值可以进行测量、比较,最终基于量化比较而作出决定。例如,一个人工智能机器人控制的一辆重型货车发生故障,货车现在只有两条道路可以行驶。机器人计算概率后,确定沿着一条道路行驶会导致1人死亡,沿着另一条道路行驶会导致50人死亡。目的论道德会引导自然人选择第一条道路,沿着这条道路行驶的自然人将被视为有道德的人。机器人可以被指示为按照这种道德行事。机器人的道德是受其程序支配的,程序让机器人评估每条道路的后果。自然人的行为方式难道不是与之一样吗?

其次,即使第一个回答无法令人信服,并且形式逻辑系统被认为不具有任何道德性,但是刑事责任仍然既不依赖任何道德,也不源自任何道德。道德甚至不是追究刑事责任的条件。在追究刑事责任时,刑事法院并不评估自然人犯罪人的道德。在法院看来,犯罪人可能道德高尚,但仍然被判有罪,例如安乐死;或者,在法院看来,犯罪人可能非常不道德,但仍然被判无罪,例如通奸。鉴于对自然人犯罪人追究刑事责任不需要任何形式道德,当涉及人工智能实体的刑事责任之时,道德同样也不应该作为考虑因素。

还有人可能认为,人工智能实体不是自然人,刑事责任只针对自然人,因为它涉及只有自然人才能享有的宪法人权。[206]在该语境下,宪法权利是指实质性权利还是指程序性权利并不重要。对于这一论点的回应是,也许刑法最初是为人类设计的,但是,自17世纪以来,刑法并没有如上文所讨论的那样只是适用于人类。[207]作为非人类实体的公司法人,同样成为刑法的主体,而且不仅仅是刑法的主体。在过去的四个世纪里,公司法人一直都被赋予刑事责任,并处以刑罚,尽管偶尔会有一些调整。

另外一些人仍然认为,虽然法人已经被确认为刑法的主体,但是人工智能实体的人格不应受到认可,因为人类对确认其人格不感兴趣。[208]这一论点不适用于探讨人工智能实体刑事责任的法律分析。在日常生活中,有许多案件追究刑事责任对人类社会没有任何好处,但仍然要追究刑事责任。最著名的例子来自康德。他声称,如果地球上最后一个自然人是犯罪人,那么他也应该受到刑罚,即使这将导致人类种族的灭绝。[209]人类利益尚未被确认为刑事责任的有效要件。

最后,有一些人可能会觉得,若要对人工智能实体可能造成的事实伤害予以考虑、指责或归责,那么前文所述的意识概念可能太过于浅显。[210]因为他们混淆了心理学哲学、神学和认知科学中的意识和知觉概念与刑法中的意识概念,所以他们才会产生这种感觉。在其他知识领域,我们对什么是意识缺乏清晰的概念。因此,对于人工智能的意识能力问题,我们无法提供一致的答案。每当给出这样的答案之时,它们通常都是基于直觉,而不是科学。[211]

然而,刑法必须准确。根据刑法提供的定义,人们可能会被终身监禁,可能会失去财产,甚至生命。因此,刑法中的定义必须得到超出一切合理怀疑的证明。对故意犯罪追究刑事责任是基于意识,而意识是心理要素要件的重要主导要件。心理学、哲学、神学和认知科学中的“意识”一词没有得到充分发展,进而创造出准确的定义。但是,这一事实并不能阻碍刑法为追究刑事责任而发展出自己的定义。(www.daowen.com)

与所有其他法律定义一样,刑法对意识的定义可能与其普通含义或其在心理学、哲学、神学和认知科学中的含义存在很大不同。刑法中的定义是为了满足刑法的需要而设计和修正的,仅此而已。这些定义代表了追究刑事责任的必需条件。如上所述,基于刑法最低要求矩阵的概念,它们也代表了结构性和实质性的最低条件。[212]

因此,刑法中的定义(包括意识的定义)是相对的,而且只与刑法相关。因为它们是按照最低要求的矩阵形成的,所以它们可能看起来很浅显。但是,只有从心理学、哲学、神学和认知科学的角度来审视,而不从刑法的角度来审视,才是如此。如果这些科学领域在意识方面出现重大发展,刑法可能会受这些科学发现的启发,而对意识作出更新和更全面的定义。但目前来说,还不存在这样的科学发展。

刑法中的定义(包括意识的定义),最初是为人类设计的。几个世纪以来,根据这些定义,人们被起诉、定罪和无罪释放。自17世纪以来,这些定义已经被修订,并适用于非人类实体(即公司法人)的定罪。公司法人也根据这些定义被起诉、定罪和宣告无罪。每当刑法中的定义改变时,对于自然人和公司法人而言,这些定义都会以同样的方式改变。在21世纪,对人工智能实体的定罪,也需要同样的定义。

对这些定义的研究表明,它们适用于人工智能技术。无需对这些定义进行任何修改,就能满足刑法的要求。几个世纪以来,全世界的刑法系统都使用相同的定义,认为这些定义足够使用,而且几乎无懈可击。这些定义会突然之间变得“浅显”吗?如果这些定义对自然人和公司法人来说足够好,为什么它们对人工智能技术来说不够好?

如果批评的观点认为,刑法的定义过于浅显,因此必须就自然人、公司法人和人工智能技术定义进行根本性的改变,那么,这种说法可能是可以接受的。但是,如果这些定义只有在涉及人工智能技术时才被称为浅显,那么,这个论点就无法被认为是严肃的或可适用的。这种批评论源自对机械人的无尽追求,当然,批评论也是这种追求的一部分。但是,由于刑法是一个有限的领域,当人工智能实体表明他们有能力遵守刑法中的定义之时,对机械犯罪人的追求就成功地得到了终结。

这个回答不仅适用于对刑法中人工智能实体的意识之批评,也适用于人工智能实体的意图之批评。[213]我们现在可以总结到,对人工智能实体刑事责任概念的批评通常涉及两个方面:(1)缺乏追究刑事责任所不需要的属性(例如,灵魂、邪恶、善良等);(2)从刑法之外的其他科学视角(例如,心理学、哲学、神学和认知科学)来看,刑法中的定义较为“浅显”。对于这两点批评,我们都可以有条有理地予以回答。

第一点批评可以通过指明刑法矩阵的结构性层面进行反驳,对于自然人、公司法人和人工智能实体追究刑事责任,都不需要任何上述所缺失的属性。第二点批评可以通过刑法矩阵的实质性层面予以回答,刑法领域之外的法律术语的定义与解决刑事责任问题并不相关。这为将人工智能实体作为直接犯罪人追究刑事责任提供了可能性。

接受人工智能实体对故意犯罪负有刑事责任的观点,并不意味着人工智能实体作为主犯实施了某种罪行。故意犯罪也可以通过共犯来实施。对共犯追究刑事责任至少需要故意,因为不存在因过失或严格责任而导致的共犯。[214]共同正犯只存在于故意犯罪之中。其他一般形式的共犯(例如,教唆犯和从犯)同样至少需要故意。

总之,由于所有一般形式的共谋都至少需要故意,人工智能系统只有在事实上构成故意的情况下才可被视为共犯。承认人工智能实体有可能作为直接犯罪人承担刑事责任,意味着同样也承认人工智能实体有可能成为共犯、共同正犯、教唆犯、从犯等,只要犯罪的事实要素要求和精神要素要求都得到充分满足即可。但是,这并不是对人工智能实体追究刑事责任的唯一方式。另外两种可能的方式是:间接正犯(perpetration through another)和可能的后果责任。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈