人工智能系统会患精神疾病吗?会是未成年人吗?会出现麻醉状态吗?会陷入正当防卫、紧密避险或受胁迫的境遇吗?如上文所述,人工智能技术最普遍的应用之一就是守卫。[338]例如,从2012年起,韩国政府便将人工智能机器人用作监狱守卫,戍守在朝鲜与韩国的边界。[339]这项技术的软件却面临着特殊威胁,这些威胁会削弱其守卫功能。这项技术还可能面临一些人类在日常生活中会遇到的难题。如果监狱守卫观察到一名囚犯正在逃跑,要阻止他逃跑就必须对其造成伤害,机器人出于这样的目的而去伤害人类,这是对的吗?
想象一下,如果黑客侵入控制监狱守卫机器人的主计算机。黑客企图通过让一些机器人失去活动能力,来帮助囚犯朋友逃跑。黑客在系统中植入的病毒立刻影响了机器人,使机器人不能对事实真相形成正确图像,并忽视系统中的一些规则。有些囚犯利用这一情形企图逃跑。其中一个囚犯抓住一个人类守卫,脱下他的制服,企图穿着制服逃跑。随后,这名囚犯又被另一个人类守卫抓住,双方扭打起来。机器人目睹了这一情形,并错误地理解为,这是两个囚犯在扭打,于是靠近这两人,试图加以干预,并阻止这起暴力事件。人类守卫命令机器人让开,机器人认为,这是对自身任务的威胁,于是,用液压手臂抓住人类守卫,并将他猛地撞向墙壁。最终,伪装成守卫的囚犯成功逃脱,而人类守卫不幸身亡。这起事例中的法律问题在于,谁应该对人类守卫的死亡承担刑事责任?(www.daowen.com)
控制这些机器人的软件被认为是强人工智能技术,所以机器人有能力形成刑法意义上的意识和犯罪意图。对机器人记录的分析显示,谋杀罪所需的犯罪意图要求完全满足。但是,这并不是这些机器人的正常行为过程,这些机器人被编程为只在绝对必要时使用武力。若要正确分析这起事例,则必须探讨刑法中一般抗辩是否适用于人工智能技术。而这正是本章试图回答的问题:一般抗辩是否适用于人工智能的刑事责任?
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。