理论教育 算法社会中的权益合理分配

算法社会中的权益合理分配

时间:2023-08-03 理论教育 版权反馈
【摘要】:算法解释权能够有效地促使企业和用户之间的权利义务以及基于自动化决策产生的风险负担趋于等价。而算法解释对此种错误造成的风险均可充分消解。通过算法解释权将风险再分配给算法的开发者或使用者是基于以下考量:其一,算法的开发和使用者具有风险分散的能力。然而,算法解释权并非是为了公平而牺牲效率的选择。除此之外,算法解释权是意思自治原则的必然推论,是合同信息不对称的矫正工具,也是对合同风险的合理分配。

算法社会中的权益合理分配

葛德文说:“正义的原则,引用一句名言来说,就是一视同仁。”[34]在本文的语境下,正义在于公平合理地分配自动化决策带来的风险。拉伦茨指出:“合同中的均衡与公平原则是民法的精神基础……在双务合同中,给付与对待给付至少必须具有相近的价值,还关系到如何公平地分配那些与合同相关的风险和负担问题。”[35]现实状况是,自动化决策根据作出影响用户合同权利的决定,用户只有接受的义务并承担全部自动化决策带来的风险,双方给付与风险负担完全不对等。算法解释权能够有效地促使企业和用户之间的权利义务以及基于自动化决策产生的风险负担趋于等价。

自动化决策是一种独特的“知识和无知的结合”,其带来的损害符合风险多样性、突发性和随机性的特点,是人工智能技术发展必然伴随的风险。[36]自动化决策的算法一旦发生错误给整个社会运行带来巨大风险。2010年由于算法的错误,美国股市道琼斯指数下跌达998.5点,10 000亿美元财富蒸发。[37]然而,现状是由相对人承担全部风险:接受结果(无论对错)并自己提供数据推翻决策。决策错误可能由两个原因造成:其一是使用的数据错误;其二为算法本身的错误。而算法解释对此种错误造成的风险均可充分消解。如果为算法决策的数据错误,可通过对算法决策的解释发现自动化决策做出的依据,从而让用户获得更新数据获得重新决策的机会,避免错误数据被多个算法反复使用。如果为算法本身的错误,如算法本身有歧视因素(如性别歧视或种族歧视),则可通过算法解释充分避免在全社会带来更大范围内的风险。

通过算法解释权将风险再分配给算法的开发者或使用者是基于以下考量:其一,算法的开发和使用者具有风险分散的能力。相对人的力量过于弱小,应把风险分配给技术力量更为强大的算法开发者和使用者,可诱导可控制风险之人尽可能在初期就降低风险,从而避免损害发生。其二,自动化决策事实上的强制性。相对人提供数据,接受自动化决策,看似是基于私法的用户协议。但由于互联网行业垄断态势决定相对人无法通过“用脚投票”拒绝用户协议。如果拒绝则意味着无法获得贷款租房就业的机会,自主隔绝于社会生活,因而具有事实上的强制性。虽然欧盟法律提出相对人应享有“拒绝接受数字化决策,要求人为干预”的权利,但其仍停留在学理讨论阶段。[38]其三,保护相对人的信赖利益是算法开发者和使用者承担算法解释责任的基础。合理信赖之保护的不断加强为法律现代化进程中的主线之一。[39]受害人基于信赖利益委托算法使用个人数据进行自动化决策。法律这样分配风险有助于形成人对算法自动化决策的基本信任,而工业的发展、科技的研发等都需要一种信任模式的建立和良性运作。[40](www.daowen.com)

反对算法解释权可能源自担忧其限制技术创新降低社会效率。然而,算法解释权并非是为了公平而牺牲效率的选择。效率价值可以体现在责任认定的具体规则上,或通过责任限额制度、保险制度与责任基金制度来分担责任,以防科技企业损失巨大,无以为继。现在无可用法律资源对受害人进行救济,这种受害人完全无助的境地显然是法律所应避免的、违背基本公平正义理念的。

基于以上讨论,人工智能发展迅猛而法律未及应对,商业自动化决策合同双方权力差距较一般的格式合同更为恶化,为衡平双方地位应配置独立的算法解释权。除此之外,算法解释权是意思自治原则的必然推论,是合同信息不对称的矫正工具,也是对合同风险的合理分配。此番探讨引来了下一个问题,如何设置算法解释权的内在构造与具体制度,以实现公平与效率的兼顾呢?

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈