理论教育 审判机器人:过失杀人案例总结

审判机器人:过失杀人案例总结

时间:2023-07-31 理论教育 版权反馈
【摘要】:但是,如果人工智能系统不具备满足过失犯罪要求的技术能力,那么它就不能被认为是机械犯罪人,对过失致人死亡罪不负刑事责任。在开篇事例中,医疗专家系统满足过失致人死亡的事实要素要求,因为它的诊断和建议引发了一系列事件,最终导致婴儿的死亡。同样,必须对医务人员进行审查,以确定其对杀人行为的刑事责任。因此,人工智能系统可能对过失犯罪承担刑事责任,并且这不一定会减少其他相关实体的刑事责任。

审判机器人:过失杀人案例总结

本章内容我们以一个事例开始,该事例描述了一个因过失而杀人的专家系统。我们现在可以回到这个案例,并根据本章所获得的见解对其进行分析。对这起凶杀案,需要考虑四个主要人物的刑事责任:人工智能系统、程序员、医院和人工智能系统的用户。为了审查人工智能系统的刑事责任,我们必须首先审查它的技术能力。如果人工智能系统具有满足过失犯罪要求的技术能力,那么在这种情况下它就成为机械犯罪人。

如果具有这些能力,人工智能系统的刑事责任应该跟自然人刑事责任一样进行审查。但是,如果人工智能系统不具备满足过失犯罪要求的技术能力,那么它就不能被认为是机械犯罪人,对过失致人死亡罪不负刑事责任。在开篇事例中,医疗专家系统满足过失致人死亡的事实要素要求,因为它的诊断和建议引发了一系列事件,最终导致婴儿的死亡。[294]

为了满足心理要素要求,还有必要证明人工智能系统存在过失。要做到这一点,需要说明系统有能力形成意识,尽管事实上它没有意识到错误诊断所涉及的相关因素,但理性人能够形成这种意识。如前所述,第一个条件可以根据系统的特点和刑法中意识的定义(对事实数据的感知及其理解)来证明。[295]如果系统具有这样的能力,并且如果这个能力已经被激活,那么系统就形成了意识。

如果系统已经意识到细菌感染,但是仍然作出不适当的诊断和建议,这就不是过失,而是故意,凶杀罪行应该被认为是误杀罪或谋杀罪。否则,该系统满足过失的第二个条件。为了使人工智能系统对过失致人死亡负刑事责任,它的心理状态必须与理性人的心理状态进行比较。在该事例中,理性人的主观化身是一个理性的医学专家系统。该系统是否已经考虑正确诊断所需的所有相关因素,是否已经根据案件的相关情况对这些因素进行了适当的权衡。

系统作出的诊断不一定非得是正确的,才能免除其过失责任。并非所有不正确的诊断都被认为是过失。这里的问题在于系统的判断。如果证明系统的判断是正确的(计算中将所有因素都考虑在内,并对所有因素进行了适当的权衡),那么系统所采取的行动就是合理的。虽然诊断没有正确识别症状的病因,但是如果系统的判断是合理的,这就仍然不属于过失的范围。并非每个错误都被认为是过失。在该事例中,无论有没有医学专家和软件专家的帮助,法院都必须仔细审查情况。

如果法院得出结论,理性人会意识到由细菌感染引发症状的可能性,或者理性人会认为由流感引发症状的可能性很低,那么该系统被认为构成过失。否则,该系统不应对婴儿的死亡承担刑事责任。在该事例中,除人工智能系统之外(并非代替人工智能系统),还有其他三个行为人可能需要承担刑事责任。人工智能系统的刑事责任可能会影响这些行为人的责任,但也并不一定。(www.daowen.com)

程序员的刑事责任取决于他在死亡事件中的角色。如果程序员通过设计人工智能系统作出错误的医疗诊断来杀害婴儿,那么程序员就是通过他人实施杀人罪的犯罪人。当人工智能系统不具有先进的人工智能能力来满足犯罪的要求时,情况也是如此。只有程序员和其他相关当事人(不包括人工智能系统)需要对杀人行为承担刑事责任。他们对杀人行为的具体刑事责任(谋杀或是误杀),取决于他们是否符合这些犯罪的心理要素。

如果程序员已经预见到后果(患者的死亡),或者如果任何理性的程序员都能够预见到后果,并且如果人工智能系统对杀人案负有刑事责任,而且该罪行是计划之外的,那么程序员可能会因可能的后果责任而需要对过失致人死亡罪承担刑事责任。一般来说,如果程序员没有故意将系统设计为实施任何犯罪行为,并且发生了计划之外的杀人事件(谋杀、误杀或过失致人死亡),那么人工智能系统的刑事责任将根据其能力以及是否满足相关杀人犯罪的要求来进行审查,而程序员的刑事责任则根据过失的标准来进行审查。这里,程序员不仅指真正编写系统程序的人员,也指所有相关人员,包括系统的生产商。

另外两个可能负有刑事责任的行为人是该系统的用户(医务人员)和医院。医院可能要为在现实生活的医疗病例中使用人工智能系统的决定而承担刑事责任。为了确定医院的责任,应当审查医院可获得的并已知道的系统的事实数据,包括系统出错的可能性。如果这个决定是合理的,医院则不构成过失。同样,必须对医务人员进行审查,以确定其对杀人行为的刑事责任。医务人员可获得的和已知道的关于该系统的事实数据,对于评估医务人员所作出的遵循该系统的诊断和建议的决定极其重要。

如果人工智能系统在此前1000个案例中都是正确的,那么医务人员遵循其建议的决定可能是合理的。但是,在每个案件中,均应由法院来决定合理的范围。在急诊室中,10%的失误率也许是合理的,但在整容手术中,上述失误率则远远超出了合理的范围。因此,人工智能系统可能对过失犯罪承担刑事责任,并且这不一定会减少其他相关实体的刑事责任。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈