就刑事责任而言,是否能将人工智能系统视为未成年人?从古代起,未满特定生理年龄的儿童,便不应该承担刑事责任(无犯罪能力推定,do li incapax)。各种法律体系的不同之处在于,对具体的法定年龄界定不同。例如,罗马法规定7岁为成年的法定年龄。[345]该抗辩由立法[346]和判例法确定。[347]很显然,法定的界限年龄是生理年龄,而非心理年龄。这主要是基于证据原因,因为生理年龄更容易证明。[348]但是,这是基于“生理年龄和心理年龄相符”的假定。
如果儿童的生理年龄超过最低年龄,又不到完全成年的法定年龄(例如,在美国是14岁),则依据证据(例如,专家证言)审查儿童的心理年龄。[349]决定性检查主要针对儿童是否认识到自身行为及其错误性,[350]以及儿童是否能像成年人那样认识到自己可能对其所犯罪行承担刑事责任。但是,和标准的刑事程序相比,仍有一些程序性的变化(例如,未成年人法庭、父母列席、宽大处理等)。
该一般抗辩背后的根本原理在于,假定未达特定年龄的儿童,无论是生理年龄还是心理年龄,不具备形成刑事责任必需的过错的能力。[351]儿童不能在心理上控制过错,不能理解刑事责任的全部社会意义和个人意义,因此,追究刑事责任是无意义的、不必要的,而且是有害的。因此,儿童不是承担刑事责任,而是接受教育,改过自新,并接受治疗。[352]在我们的案例中,问题在于,该原理是否只和自然人相关,是否和其他法律实体也相关。
未达法定年龄一般抗辩不适用于公司法人。不存在“公司法人儿童”。一旦企业注册成立,便可能承担法律上的刑事责任;因此,此类一般抗辩的原理和公司法人无关。儿童缺乏形成必要过错的心理能力,因为在这个年龄阶段,他的意识尚未发展成熟。随着儿童的成长,他的心理能力也逐渐发展,直至能完全理解是非。此时,刑事责任才有意义。
公司法人的心理能力并不依赖于它的时间“年龄”,即注册日期。公司法人的心理能力被视为固定不变的。不仅如此,公司法人的心理能力源自其成年的人类员工。因此,公司法人无法因未达法定年龄的一般抗辩,而获得合法的正当化抗辩。我们感兴趣的问题是,在这种情况下,人工智能系统是类似于自然人,还是类似于公司法人。
答案因人工智能系统的类型不同而有所区别,我们必须将固定运行的人工智能系统和动态发展的人工智能系统加以区分。固定运行的人工智能系统的能力在整个生命周期内保持不变。这些系统的能力不会随着时间的变化而发生改变。因此,必须在他们每次实施犯罪之时,对其形成心理要求的能力(例如,意识、故意、过失等)进行审查,而未达法定年龄的一般抗辩并不适用。(www.daowen.com)
但是,动态发展的人工智能系统的能力在起点和终点并不相同。这些系统的能力(包括心理能力)借助机器学习或其他技术,随着时间而不断发展。如果系统在活动之初并不具备刑事责任必需的心理能力,而是在某个时间点发展出这项能力,那么活动之初和能力获取之间的时间段便相当于人类的儿童时期。在这个时期内,系统并不具备刑事责任追究所必需的能力。
但是,如果人工智能系统在实施犯罪时其心理能力已经发展成熟,那么问题在于未达法定年龄的抗辩是否仍然具有相关性,因为如果系统具备所需能力,不管能力何时获取,人工智能系统都应承担刑事责任。这个问题的答案和自然人犯罪人一般抗辩的基本原理类似。[353]我们可以审查各个儿童各个年龄的心理能力,并单独确定某个儿童是否具备所要求的能力,但是,这还不足够。在幼儿园里,一名学龄前幼儿打了另一名幼儿。我们立即可以确定,这名幼儿不具备刑事责任所需的心理能力。
另一种方法是建立法律推定,进而限定为未满特定年龄的儿童不承担刑事责任。人工智能系统便是这种情形。对于具备相同能力、使用相同学习技能的批量生产的强人工智能系统(例如,成千上万的监狱守卫、军用机器人),不需要评估单个机器人的心理能力。如果我们根据经验了解到,某个确定的系统在经过264小时的活动便能具备所有必需的心理能力,而且,如果该机器人在完成264小时活动之前实施犯罪,便推定该机器人正处于儿童期,无需承担刑事责任。
如果控方坚持认为仍处于“未成年期”的单个系统具备心理能力,或者辩方坚持认为某个系统虽然已经度过未成年期,但仍然不具备所需的心理能力,那么可通过专门的检查和评估来确定该系统的实际心理能力。这与自然人的生理年龄和心理年龄的自然差距并没有本质上的不同。如果辩护理由是一位17岁的自然人犯罪人心理发育仍未成熟,法院会审查犯罪人的心理能力,并判断他是否具备刑事责任所需的能力。
以上基本原理与自然人和动态发展的人工智能系统相关,与公司法人无关。因此,在适当情形下,似乎未达法定年龄的一般抗辩和这类动态发展的人工智能系统相关。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。