如果说,技术本身往往是风险负荷的,那么,在不同的社会环境下,对于技术的不同使用也会带来风险。此处,我们着重带入“人”这一因素,尤其是从使用角度探讨人工智能技术的社会风险。具体而言,这种不同使用可以细分为两个层面:
(1)对用户信息的不当或者过度采集所带来的潜在风险
首先,对用户信息的不当采集会带来潜在的风险。例如,据报道,谷歌为了提升新一代手机Pixel 4的面部解锁系统,向每个愿意出售面部数据的人提供5美元的礼品卡。但据称这家科技公司正在使用一些可疑的方法进行面部扫描。据参与该项目工作的几位消息人士称,一家名为Randstad的承包公司确实在亚特兰大以流浪汉、黑人为采集目标,通常也不说他们在为谷歌工作,也没有在说他们实际上是在录制人的面部信息。在志愿者们签署的协议中,谷歌保留了长达五年的人脸数据使用权,这个时间甚至还可能因为项目的继续而延长。此外,它还授予谷歌汇总和共享研究数据的权利,而且没有任何使用目的的限制。这或许意味着数据的使用不限于谷歌的单个业务,同时适用范围也不会仅限于美国国内。[123]
其次,对用户信息的过度采集也会带来潜在的风险。例如,据报道,有的地方如灵隐寺、天坛试点使用带有人脸识别技术的厕纸机,取纸者只有刷脸才能取得厕纸,等等。再如,2009年,印度政府启动名为Aadhaar的号称全球第一大生物识别数据库的新身份项目,该项目据称要收集超过10亿人口的姓名、地址、手机号以及可能更为重要的指纹、相片和虹膜扫描。在这一过程中,Aadhaar渗透到了印度人日常生活的几乎每一个方面,包括到学校上学,到医院看病,到银行获得金融服务。它可谓打开了规模前所未见的数据收集的路径。对此,虽然印度政府认为Aadhaar是解决诸多社会问题的重要解决方案,但有批评者便认为这是政府在过度收集公民隐私信息。[124]身体生物的复杂性和唯一性特征使其具有高安全性,但是身体的生物信息的唯一性决定其一旦被泄露、盗用、复制和错用,会导致严重的后果。
(2)对所收集的用户信息不当或非法使用可能会带来的风险(www.daowen.com)
首先,对人工智能所收集信息的不当使用也会带来风险。例如,据报道,2018年5月,美国亚马逊公司被曝出将自己下属公司旗下的人脸识别技术Recognition出售给警方,这种人脸识别技术能够帮助警方实时从数百万张人脸中识别出警方正在寻找的人。多家组织向亚马逊写信表达了抗议,认为该技术将不可避免地被当局滥用,并指控亚马逊提供“强大的监控系统会对社区形成巨大威胁,包括有色人种和移民。警方可能会利用其追踪抗议者或其他被警方列为嫌疑人的目标,而不仅仅是罪犯”。人们如此愤怒的原因在于,人脸识别技术在执法部门的使用权限和用途并没有明确的法律规定,即执法的警察存在滥用此项技术,从而侵犯公民隐私的风险。[125]
近观国内,其实人脸识别的应用程度远超我们的想象。而当政策法规的出台远远跟不上技术的发展时,对于技术的不当使用便会成为人工智能时代的风险。例如,少数公司正在收集海量用户的数据,访问这些数据便可以复盘我们的日常生活轨迹以及显性或隐性的兴趣,就能“知道”我们的行动历史,我们的在线搜索以及社交媒体活动、聊天、邮件等在线行为。基于此,AI系统将能“理解”所有在线用户的兴趣、日常习惯以及将来的需求,可以对用户的购买兴趣以及用户的情绪状态等做出准确的估计和预测。但是这些“访问”是否经过了用户的许可,是否是一种未经授权的不当使用呢?显然,用户的隐私处在风险之中。[126]
其次,对人工智能所收集信息的非法使用也会带来风险。例如,国内有地方利用人脸识别技术在公共场合公开曝光所谓“闯红灯人员”的信息。再如,2017年,浙江警方破获了一起利用人工智能犯罪、侵犯公民个人信息案。专业黑客用深度学习技术训练机器,让机器能够自主操作,批量识别验证码。“很短时间就能识别上千上万个验证码。”[127]人工智能技术始终存在着被滥用以及非法使用的风险。
如上所述,在现实中,无论美国还是中国,人脸识别技术都存在着被滥用从而导致不良社会后果的风险。对此,2018年,来自剑桥大学等多个研究机构的研究人员发布了一份AI预警报告《人工智能的恶意使用:预测、预防和缓解》,预测了未来十年网络犯罪的快速增长、无人机的滥用、使用“机器人”操纵从选举到社交媒体等恶意利用人工智能的场景。例如,在政治领域,借由详细的分析、有针对性的宣传、便宜且高度可信的虚拟视频,可以操控公众舆论,而这种操控的规模在以前是无法想象的。这份报告针对AI的潜在恶意使用发出警告,号召政府及企业重视当前人工智能应用中的危险。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。