在本章开篇,我们介绍了一个杀人机器人的例子,事例中基于人工智能系统的自动驾驶汽车成为严格责任的主体。回到这个事例上,我们可以依据本章中的观点来分析该事例。本例中的杀人案必须考虑三个主要人物的刑事责任:人工智能系统、制造商(包括程序员)和用户。为了审查人工智能系统的刑事责任,我们必须首先调查其技术能力。如果人工智能系统具备满足严格责任犯罪要求所需的技术能力,那么在这种情况下,它就成为一个机械犯罪人。
如果人工智能具备这种能力,那么应该审查人工智能系统的刑事责任,就如它是自然人那样。但是,如果人工智能系统缺乏满足严格责任犯罪要求所需的技术能力,那么在这种情况下,它不能成为一个机械犯罪人,对该犯罪不承担刑事责任。在开篇事例中,人工智能系统符合杀人罪的事实要素要求,因其行为导致一系列事件,并以患者的死亡告终。[334]
为了满足心理要素要求,我们必须证明严格责任,包括证明该系统具有形成意识或过失的能力,并且具有合理性的能力。为了反驳过失推定,有必要证明人工智能系统事实上对相关事实并未形成意识或者不存在过失,并且已经采取一切合理措施防止犯罪。第一个条件可以基于系统的特征,使用上文讨论的刑法中的意识和过失的定义来证明。[335]如果系统具有这种能力,并且如果这种能力已被激活,则系统已经形成意识或过失。
合理性的能力与上文讨论的过失所需的相应能力没有区别。[336]系统不需要合理行事,只要具备作出合理决策的能力。强人工智能系统可以根据现有的事实数据(如天气预报计算机[337])计算事件发生的概率,并选择满足某些标准的选项,故而它应该具备这种能力。如果没有向法院提交其他证据,这足以激活过失推定,并对严格责任犯罪承担刑事责任。
反驳过失推定从没有形成意识或过失的正面证据开始。这可以根据人工智能系统的记录来证明。如果得到证实,那么有必要证明其已采取一切合理措施来防止犯罪。由于已经证明了合理性的能力,因此,应当据此审查系统的行为。必须审查系统计算的合理选项以及基于这些计算采取的行动,以确定它们是否包括本案中的所有合理选项。审查的方式与过失案例相同,有时需要使用专家证人。如果证明系统并未对事实数据形成事实上的意识或过失,并且系统已经采取所有合理的措施,那么就可以反驳过失推定。如果不是,那么系统应当对严格责任犯罪承担刑事责任。(www.daowen.com)
制造商、程序员和用户的刑事责任,根据他们各自对所造成的死亡后果的作用来确定。如果他们将人工智能系统作为工具使用,将它设计为撞向救护车并杀死患者,而系统对事实情形发生误解,那么他们就是杀人罪的间接正犯。如果人工智能系统没有高级人工智能功能来满足犯罪的要求,那么情况亦是如此。在这种情况下,只有他们和相关当事方(不包括人工智能系统),对杀人罪负有刑事责任之人。他们对杀人罪的确切刑事责任,无论是谋杀还是误杀,都取决于他们是否符合这些犯罪的心理要素要求。
如果他们已经预见到后果(患者的死亡)或处在同等条件下的任何理性人都能预见到这些后果,并且如果人工智能系统对杀人罪负有刑事责任,那么他们可能会因可能的后果责任而对该杀人罪承担刑事责任,只要犯罪是无计划的。一般来说,如果他们没有将该系统设计为实施任何犯罪,但却发生了无计划的杀人罪,那么应当根据其能力以及满足相关的杀人罪的要求,来审查该系统的刑事责任;并且同时,根据可能的后果责任,来审查自然人当事方的刑事责任。
因此,人工智能系统可能对严格责任犯罪承担刑事责任,而这并不一定会减少其他相关实体的刑事责任。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。