算法透明原则将不可避免地带来信息披露,而在遍布私主体信息的当代社会,信息披露将很可能与私主体权利(尤其是个人隐私、商业秘密和知识产权)相冲突。比如,在金融信贷、个人征信和医疗诊治等领域,算法已经得到普遍应用,这些领域中的法定保密义务和约定保密义务会给算法透明原则的实现造成很大阻碍。这是因为在被披露的算法中,往往既涉及敏感的个人隐私,也涉及关键的商业秘密和知识产权。这些敏感信息或机密信息,可能可能作为算法程序的一部分,可能作为输入数据、输出结果,甚至可能兼而有之。
上述此类信息披露,势必与隐私保护、商业秘密保护、知识产权保护等法律法规[26]或合同约定相冲突,并受到后者的限制。这一现象在金融信贷领域最为典型,且不说用户个人隐私屡屡成为金融机构拒绝透明的挡箭牌,金融机构还常常利用专利权、版权、商业秘密甚至商标权等私权来对抗算法透明。[27]当然,就如下文将要讨论的“卢米斯案”那样,开发算法的公司所最常使用的抗辩依然是将算法作为商业秘密来寻求法律保护。[28]类似的情况,不胜枚举。
本文可以继续堆砌案例,但上述案例足以表明,算法透明原则并不是一个普适原则。当然,反过来说,这并不表明算法透明原则在任何情境下都不可行。这也不表明,一旦出现与上述三种考量因素的冲突,算法透明原则就必然走投无路。即便与三种制约因素存在冲突,但只要冲突是在合理范围之内,其可行性也依然存在。比如,前文提到的投票机案例,如若将投票机的算法公之于众,无论是从国家安全、社会秩序、私主体权利等哪个角度来看,他们对可行性的阻碍均很难成立。唯一可能存在的隐患是,假如投票机的算法公开,会增加不法分子侵入系统篡改投票结果的风险,但是这样的风险,可以在技术上和监管上加以限制。[29](www.daowen.com)
综上所述,本部分从国家安全、社会秩序和私主体权利等三个方面,质疑算法透明原则的可行性。换言之,算法透明原则至少会受到上述三方面考量的限制,并非放之四海而皆准。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。