理论教育 人工智能实体责任-审判机器人

人工智能实体责任-审判机器人

时间:2023-07-31 理论教育 版权反馈
【摘要】:在过失犯罪中,就像在故意犯罪中一样,当犯罪人同时满足犯罪的事实和心理要素时,就应承担刑事责任。因此,在故意犯罪中的赋予人工智能实体刑事责任的理由也适用于过失犯罪。对于具有这种能力并能予以发挥的人工智能系统而言,追究过失犯罪的刑事责任是必要的。对于人工智能系统而言,过失犯罪的刑事责任正是根据刑法规定的外部限制重新考虑决策过程的机会。人工智能系统可以自行学习其自由裁量权的界限,但对自然人也是如此。

人工智能实体责任-审判机器人

过失犯罪中,就像在故意犯罪中一样,当犯罪人同时满足犯罪的事实和心理要素时,就应承担刑事责任。如前所述,正如在故意犯罪中一样,法院不应检查犯罪人是否“邪恶的”“不道德的”,等等。[287]对于每种类型的犯罪人都是如此:自然人公司法人和人工智能实体。因此,在故意犯罪中的赋予人工智能实体刑事责任的理由也适用于过失犯罪。只要这些要求严格得到满足,就可以追究刑事责任。

然而,在社会目标上,过失犯罪不同于故意犯罪。相关的问题是,其不同社会目标是否不仅与人类和法人相关,也与人工智能实体相关。最初,过失犯罪并不是针对“邪恶”的人,而是针对犯错误的人。因此,刑法中关于罪恶的争论与过失犯罪无关,因为它可能是针对故意犯罪而言。在过失犯罪的情况下,刑法有助于划定个人自由裁量权的界限。

任何人都可能作出错误的判断,但大多数时候都不会违反刑法规范。例如,我们可能会选择错误的配偶、汽车、雇主、公寓,甚至信仰。但是,当我们错误地使用自由裁量权并导致他人死亡(过失致人死亡)之时,我们确实违反了刑法规范。[288]

只要我们的错误判断不违反刑法,社会期望我们自己吸取教训。这样我们下次选择汽车、房子、雇主等时,就会更加小心。这正是我们获得生活经验的方式。在这些情况下,社会承担着我们可能无法吸取教训的风险,但它不会通过刑法进行干预。然而,当犯罪行为发生时,社会无法承担允许个体在家接受教育的风险,因为社会危害太严重以至于无法承担这种风险。

在这些情况下,社会通过规定过失犯罪进行干预。规定这些犯罪的目的是提高个体吸取相关教训的可能性。预期来看,我们假设,一旦人们吸取教训,那么再犯同样罪行的可能性要低得多。通过这种方式,社会教育医生在手术过程中要更加小心,雇主要更加努力地保护雇员的生命和福利,建筑公司要更加严格地遵守安全条例,工厂要制造更少的污染,等等。我们预期自然人犯罪人和公司法人犯罪人能够通过刑法的介入来吸取教训。这种类型的教育是否也应该针对人工智能实体?(www.daowen.com)

答案是肯定的。就过失犯罪的教育目的而言,除非犯罪人有学习能力,否则追究刑事责任也无意义。如果我们想让犯罪人在犯错后吸取教训,我们必须假设犯罪人有能力进行学习。如果人工智能具有这种能力并能予以发挥,那么对其追究过失犯罪的刑事责任就是必要的。但是,如果没有发挥这种能力,那么对过失犯罪追究刑事责任就无法实现预期价值。因为不管是否追究刑事责任,结果都是一样的。

对于具有这种能力并能予以发挥的人工智能系统而言,追究过失犯罪的刑事责任是必要的。正如对人类一样,过失犯罪也可以划定人工智能系统自由裁量权的界限。自然人、公司法人和人工智能实体都应该从错误中吸取教训,并在未来改进各自的决策。当错误属于刑法的范围内之时,刑法就通过划定决策者的自由裁量权的方式予以介入。对于人工智能系统而言,过失犯罪的刑事责任正是根据刑法规定的外部限制重新考虑决策过程的机会。

多年以来,我们了解到,改进人类决策过程需要对过失施加刑事责任,同样的逻辑也适用于具有机器学习功能的人工智能系统。虽然人工智能系统可以重新编程,但是该系统通过机器学习获得的宝贵经验将会丢失。人工智能系统可以自行学习其自由裁量权的界限,但对自然人也是如此(因此,我们仍然必须对过失犯罪中的自然人追究刑事责任)。

总之,如果人工智能实体能够满足过失犯罪刑事责任的事实要素要求和心理要素要求,而且对这些犯罪追究刑事责任的理由对自然人和人工智能系统都适用,那么在这些案件中,就没有理由不追究人工智能实体的刑事责任。但是,这并不是人工智能涉及过失犯罪刑事责任的唯一类型。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈