理论教育 算法可解释性规则的有效性

算法可解释性规则的有效性

时间:2023-08-03 理论教育 版权反馈
【摘要】:针对GDPR确立的算法可解释性规则的可行性和有效性方面,也有学者提出了质疑。[40]桑德拉·沃克特等认为,解释权规则存在诸多法律和技术上的障碍:首先,GDPR中不存在具有法律约束力的解释权。解释可能仅对数据主体提供很少的有意义信息。其主张应当超越GDPR的限制,对数据控制者施加“无条件性反射事实解释”以作为一种克服当下算法解释和问责挑战的一种新型解释类型。

算法可解释性规则的有效性

针对GDPR确立的算法可解释性规则的可行性和有效性方面,也有学者提出了质疑。莉莲·爱德华兹和迈克尔·韦尔认为,GDPR规定的“解释权”采用了一种高度限制和不清晰的形式,很难真正实现对算法的控制,在现有技术条件下,主体中心解释(subject-centric explanations,SCEs)比模型中心解释路径(model-centric explanations,MCEs)更有利于数据主体寻求救济。但是,透明性并不必然保证实质正义或者有效救济的实现。其建议人们要警惕新的“透明度谬论”,更重要的是从GDPR以下两个层次缓解算法控制的危害,即“被遗忘权和可携带权”以及“隐私设计和数据保护影响评估等”。[39]

保罗·德·拉特指出,一方面,算法的不透明性是固有的,人工智能本身有自主学习的过程,后期输出的结果可能和设计者的理念不相符。如果在神经网络中插入一个中间层,可以通过加权平均计算来显示所有结果的权重,但无法解释所有输入变量最终的贡献。另一方面,出于隐私的考虑,将数据库免费提供给大众是不明智的。这也会导致相关方的博弈,导致不效率。出于知识产权的原因,也应该交给权威的监管部门来管理。[40](www.daowen.com)

桑德拉·沃克特等认为,解释权规则存在诸多法律和技术上的障碍:首先,GDPR中不存在具有法律约束力的解释权。其次,即使具有法律约束力,该权利也只适用于有限的情况。再次,解释复杂的算法决策系统的功能及其在特定情况下的基本原理在技术上具有挑战性。解释可能仅对数据主体提供很少的有意义信息。最后,数据控制者有权不共享算法,以避免泄露商业机密、侵犯他人的权利和自由(例如隐私)。其主张应当超越GDPR的限制,对数据控制者施加“无条件性反射事实解释”以作为一种克服当下算法解释和问责挑战的一种新型解释类型。其可以平衡数据主体和控制者之间的关系,保护数据主体的信息安全。反射事实解释不仅避免了对复杂专业的算法进行全面公开,而且可以通过建模计算得出,便于数据主体理解自动化决策、对决策进行抗辩以及改变未来的做法来达到预期目的。[41]

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈