电影《少数派报告》开始是这样一段场景,预防犯罪中心根据三位“先知”给出的谋杀预测,在真正的犯罪发生之前,阻止命案的发生。当先知出现分歧,按少数服从多数原则定案,但最后若少数一方正确的话,则会秘密保存一份少数派报告。这说明“先知”的预测机制并非100%准确,存在失误。
现实中,这种“先知”的角色就像是人工智能。从地震预测、台风路径预测、犯罪风险评估,到森林火灾预警,人工智能被越来越多地认为是客观、高效、准确的。其能够借助每秒千百万次甚至上亿次的运算减少密集的人力劳动和繁琐的任务,使得决策过程变得更加自动化。当人工智能越来越多地被纳入公共安全风险治理的决策中,甚至在某些情况下替代人类做出决策,我们不禁要问,我们应该相信人脑决策还是算法逻辑?对此持积极态度的人如雷·库兹韦尔2005年在其著作《奇点临近》中写道:“我把奇点的日期设置为极具深刻性和分裂性的转变时间——2045年。非生物智能在这一年将会10亿倍于今天所有人类的智慧。”而霍金、比尔·盖茨、马斯克等人则多次表示要警惕人工智能。《失控》的作者凯文·凯利认为,“人们在把自然逻辑输入机器的同时,也将技术逻辑带到了生命之中,机器人、计算机程序等人工制造物也越来越具有生命属性”。作为大数据处理的计算程序和人类思维的一种物化形式和人脑外延的智能算法,也正“失控性”地呈现出其劣根性——歧视[2]。
可以肯定的一点是,现实生活中的确出现过如“谷歌的照片应用程序将黑人的图像标记为大猩猩”这样的事件,而公共安全事关每个人的生命权、健康权和财产权,如果完全地交给人工智能来处置公共安全风险可能将会是一场灾难。在公共安全领域,一个典型的案例就是,犯罪风险评估COMPAS软件的歧视问题。COMPAS是Northpointe(现为Equivant)开发的一款旨在对再犯罪风险评估的软件,被美国多个州的法院所使用,20多年来超过100万起案件使用COMPAS软件来预测保释罪犯再次犯罪的概率[3]。软件的初衷是好的,但是在实际的评估过程中,出现了“种族歧视”的问题。
2015年,芝加哥法院使用的一个犯罪风险评估算法COMPAS被证明对黑人造成了系统性歧视。如果一个黑人一旦犯了罪,他就更有可能被这个系统错误地标记为具有高犯罪风险,从而被法官判处更长的刑期[4]。此后,非营利性新闻机构ProPublica对COMPAS进行了严格的分析和测试,ProPublica将COMPAS对佛罗里达州被捕的7000人的风险评估与实际的再次犯罪的结果进行对比,发现COMPAS标记为较高风险的黑人再犯罪概率几乎是白人的两倍,但是实际上出狱之后,这些黑人的实际犯罪率明显低于白人的再犯罪率。而这些白人罪犯,COMPAS却将他们标记为较低风险[5]。COMPAS软件的数据和使用一直受到严密的保护,算法如何决策的问题也未公开。
COMPAS的案例给我们带来了更多的思考。(www.daowen.com)
首先,算法由人类设计并使用,是人类思维的一种数据化体现,反映了人类的意志。智能算法本质上是“以数学形式或计算机代码表达的意见”[6]。既然是由人类设计,算法继承了“类人”的认知规律,也具有与人类相似的歧视根源[7]。智能算法决策是否与人类决策属于相同的性质,如何避免一刀切的思维,从法规、技术、伦理、标准、场景等多个维度切入,去解决这个困扰已久的问题?
其次,人工智能在实际应用过程中产生了一系列的算法歧视问题,如性别歧视、种族歧视、收入歧视等,并不能够完全保证公平性。这背后不仅仅是研发者的主观选择和判断,样本与数据质量的好与坏,更包括算法自身原因造成的歧视,如算法规则的不透明与不准确、算法的自我学习等。而公开完整的算法涉及知识产权和商业秘密,显然是不合适的。那么,如何设计更好的制度和机制,来应对这种算法歧视与算法黑箱呢?
最后,人工智能的准确性存在不足,即使是在公共安全领域,最常见的人脸识别应用,也不能保证识别的准确性达到100%。那么,当人工智能决策出现错误和纰漏时,其责任的主体划分难度较大,如何清晰地划分不同行为体(如设计者、使用者等)所承担的责任,从而使得人工智能在公共安全领域应用实现可问责?
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。