“卢米斯案”暴露的问题对整个算法社会都具有普适性,必须通过立法建立起一整套规则体系才能加以系统解决。这是一个立法论的问题,而不是解释论的问题。在笔者看来,在诸多算法风险中,最为关键的仍然是算法透明度问题。只有保证算法的透明度,或者至少是一定程度上的透明度,才能够使得算法的歧视性、准确性等问题得以被发现,也才能使得各利益相关方得以发现自己权益被侵害的事实,并提出相应的权利主张。
目前,大多数意见都要求法律以某种方式保证算法的透明度。尽管有学者认为算法透明原则作为事前规制存在种种弊端[48],但在笔者看来,这并不足以阻碍算法透明原则的重要地位。第一,算法透明原则并不仅仅是一种事前规制,更是一种全过程的规制手段。如果算法本身不透明,那么人们将很难发现算法中蕴藏着的不公平,更难以在维权时取证,事后规制的基础将不复存在。第二,算法透明原则在具体落实时必然会呈现出光谱式的面貌,既有的研究仅仅根据国家安全、社会秩序等宏观价值设想出机场安检、导弹试射等极端的场景,这些例子只能提醒我们要在特定场景下设置例外,并不能够全面推翻算法透明原则。第三,既有研究指出隐私、商业秘密等私主体权利会阻碍算法透明,但法律对私权利的保护从来都不是绝对的,即使是GDPR这样重视私权利保护的法令也规定了个人数据保护的例外条款。第四,算法透明原则所要求的透明性具有多元化特征,透明性未必等于向全社会公开,而可能仅向利益相关方公开,相比于直接推翻这项原则,不如设计更加精细的具体规则。第五,即使算法透明不等于算法可知,但算法不透明必然等于算法不可知。即使算法公开无助于普通大众的理解,神经网络等技术也可能导致程序员无法理解算法内涵,但是算法透明至少为理解算法提供了一种可能。并且,伴随着技术进步,目前计算机科学界也正在开发针对算法可解释性的算法,这将进一步促进“技术黑箱”的破解。[49]
因此,算法透明原则依然是我们努力的首要方向,也是立法首先应当确立的原则。但对于如何落实算法透明原则,目前仍尚未形成统一的有效方案。GDPR对自动化决策工具规定了广泛的可解释性要求,但是笼统的规定并不能带来令人满意的效果。例如,谷歌搜索引擎在进行智能广告推送时会按照GDPR的要求向用户显示“您可能会看到广告的原因”,但披露内容仍然相当概括。[50]用户无法从这些简单的标签中弄清楚为何这些广告会出现在自己面前,更无从得知影响自动化决策的这些自变量的具体权重。因而,建立起无差别的算法解释性和责任规则并不可取,更重要的是区分不同场景,建立合适的算法透明规则。(www.daowen.com)
建立场景化的算法透明规则,需要对各种场景下的不同算法进行类型化梳理,这需要十分庞大的调研工作。因而,初期的立法可以只进行原则性规定,通过赋予法官较大的自由裁量权发展实务经验,嗣后再进行总结;或者可以确立非要件式的、指引式的立法,即像《反垄断法》第18条[51]一样列出所需考虑的因素。具体而言,可能需要考虑如下因素:第一,算法应用场景所涉及的利益冲突;第二,算法应当在何种范围内披露,是向全体公众披露,还是向某个特定的审查委员会披露,抑或只向利益相关方及其委托人披露;第三,要求算法开发者披露的内容包括哪些,例如是要求披露“卢米斯案”法官所要求的书面警示事项即可,还是要求披露算法的源代码、全部自变量及其权重乃至全部训练数据集;第四,算法的披露可能带来何种后果,应当如何预防不良后果的发生;第五,是否需要设置相关机制辅助对前述披露内容的解释工作。
在算法责任机制方面,也需要更加细致的规则构建。一个常见的讨论是算法责任问题在侵权法上如何定性。例如,德国学者格哈德·瓦格纳曾经运用教义学方法分析自助系统应当适用产品责任,而不是生产者责任。[52]笔者认为,为了防止侵权法责任规则对技术发展的压制,应当建立起类似于机动车交通事故责任强制保险那样的保险机制,以平衡权利保护与技术进步,在此基础上可以适用或类推适用我国侵权法上的产品责任。而在刑事司法程序场合,由于算法产品涉及重要的基本权利问题,应当将算法责任机制与准入制度挂钩,根据算法表现进行动态评级,调整法院的公共服务购买清单。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。