理论教育 算法社会中的法律沉思:风险评估工具的扩展与减少累犯

算法社会中的法律沉思:风险评估工具的扩展与减少累犯

时间:2023-08-03 理论教育 版权反馈
【摘要】:同样,美国律师协会也敦促各州采用风险评估工具,以减少累犯和提高公共安全。最初,风险评估工具仅由缓刑和假释部门使用,功能是帮助确定对罪犯的最佳监督和处理策略。随着美国国内对减少累犯以及循证的日益关注,此类工具的使用现已扩展到量刑领域。

算法社会中的法律沉思:风险评估工具的扩展与减少累犯

伴随着人工智能第三次浪潮的崛起,算法发挥着越来越重要的作用。算法可以利用海量数据对人类行为模式进行预测,从而帮助决策者判断风险。算法的这种预测功能在某种程度上与刑法的特殊预防功能相契合。例如,人们可以通过算法对罪犯的累犯风险进行评测,从而决定量刑问题。在美国,司法界已经开始将算法纳入刑事司法政策的尝试。

2007年,美国首席大法官会议通过了一项题为“支持促进公共安全和减少累犯的量刑实践”的决议,强调法官“发挥重要作用,确保刑事司法系统有效运转,通过减少累犯和追究罪犯责任来有效保护公众”。该会议致力于“支持各州根据有最佳研究证据证明能够有效减少累犯的实践,努力采取量刑、惩治的政策与计划”。同样,美国律师协会也敦促各州采用风险评估工具,以减少累犯和提高公共安全。它强调了对关押低风险个人的关切,并警告称,将低风险罪犯与中高风险罪犯安置在一起可能会增加而不是降低再次犯罪的风险。这种接触可能导致来自高风险罪犯的负面影响,实际上有害于个人在改过自新方面的努力。最初,风险评估工具仅由缓刑和假释部门使用,功能是帮助确定对罪犯的最佳监督和处理策略。随着美国国内对减少累犯以及循证(evidence-based)的日益关注,此类工具的使用现已扩展到量刑领域。然而,在量刑中使用这些工具更为复杂,因为量刑决定具有多元目标,其中只有部分目标与减少累犯有关。(www.daowen.com)

算法在帮助法官裁判的同时,也反映出了许多问题。人们注意到,算法在很多时候对个人产生了实质性影响,但其自动化的决策过程却并不是公开的,它也不接受质询、不提供解释和救济。相对人无从知晓决策的原因,更无法要求撤销或修正自动化决策的结果。即使自动化决策侵害了相对人的利益,相对人也无法要求算法开发者或使用者承担相应的责任。这种状态也被学者称为“算法暴政”。[2]而当刑事司法程序借助算法进行裁判时,这种“算法暴政”会直接涉及人的生命、自由等基本权利,从而彰显出更为强烈的权利冲突状态。“卢米斯案”正是反映了在这种情况下算法所引发的典型问题,因而成了近年来备受关注的一个案例。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈