在GDPR之外,学者们建议采取各种方式来建立算法透明化与责任体系,以应对“算法黑箱”带来的问题。杰克·M.巴尔金反驳了“侏儒谬论”,指出算法社会的真正敌人不是算法而是人。他构建了一套算法公平治理体系,指出透明度、解释性、正当程序、负责任等要求都能从中推演出来。该体系的三大法则是:对于客户、消费者和终端用户,算法使用者是信息受托人;对于非客户、消费者和终端用户,算法使用者负有公共责任。如果算法使用者是政府,公共责任的界定应遵照其作为政府的性质;如果算法使用者是私人,则要受公共利益规则影响;算法使用者的核心公共责任是避免将他们操作的成本(损害)外部化。对于算法决策损害的最佳类比不是故意歧视,而是社会不公的污染。[42]约书亚·A.克罗尔等指出,通过设计事前机制和事后机制,算法依然可以对第三人和公众负责。更重要的是要促进计算机科学家和法律政策制定者之间的跨学科合作,特别是要减少法律的模糊性,使得计算机科学家更能够适应外部监督机制。[43]
在我国,大部分学者都看到了“算法黑箱”带来的歧视、交易地位不平等、救济缺位等问题,并主张在我国引入GDPR的解释权。[44]但也有学者指出,算法的可解释性只是一种有益探索,并不是有效手段。例如,林洹民认为,算法解释权适用范围有限,我国应当设立以数据活动顾问为主、数据活动监管局为辅的二元算法监管机制:数据活动顾问从企业内部对算法的设计、使用和评估进行陪同控制;数据活动监管局则从外部对数据活动顾问提供必要的援助和监督。[45]沈伟伟认为,算法透明原则不具备可行性和必要性,应当看到这种本质主义立场的弊端,建立以实用主义为导向、以算法问责为代表的事后规制。[46](www.daowen.com)
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。