理论教育 人工智能社会治理:应对风险的策略

人工智能社会治理:应对风险的策略

时间:2023-08-15 理论教育 版权反馈
【摘要】:对于人工智能的社会风险治理,则需要公众、机构和政府等所有利益相关方采取切实行动,面对选择,我们必须具有行动的勇气和智慧。

人工智能社会治理:应对风险的策略

近年来,人工智能获得了突飞猛进的发展,已从“未来”走向了现实。它不仅让生产率得到了大幅度的提升,还可以帮助人们解决很多过去难以应对的问题,正日益成为新一轮产业革命的引擎,这给人们带来了很多美好的憧憬。但与此同时,人工智能的发展也带来了很多新的问题和风险,如前述由人工智能引发的安全风险、隐私风险、伦理风险等。我们需要在社会层面对人工智能风险进行治理。

1.人工智能的公众风险认识

传统的风险治理机制的重点在于对客观风险和灾难的防范、预警和事后处理,对主观层面的问题较少涉及。因此,在建立现代风险治理机制时,必须充分考虑人们的主观“风险认知”因素。现代科技风险扩散到社会的各个方面,与公众的生活息息相关,公众对了解可能影响他们生命财产安全的风险有强烈的愿望。因此,风险控制和管理中公众的参与是不可或缺的。新的风险社会应该建构一种双向沟通的“新合作风险治理”[132]。这同时也表明“风险”不仅是一种事实判断,而且更是一种文化概念,在风险治理的决策过程中,必须充分考虑社会文化因素,而不是以简单的因果思维或工程思维来进行决策。[133]公众对于人工智能的风险认识,本质上应该视为是人工智能文化的表现形式,即“关于人工智能的文化”,我们在后面第13章会有相关讨论。

2.风险控制,对于科技企业来说,就是要开发安全的产品

微软CEO萨蒂亚·纳德拉曾言AI技术既会带来好的一面,也会带来坏的一面,科技企业必须认识到,它们的设计决定将会成为好与坏的推手,强调了对于人工智能技术的风险控制而言,科技企业所肩负的社会责任。科技公司应该开发可信的技术,正如纳德拉所说:“环视我们生活的环境,到处都是威胁,有一件重要的事情是我们应该做的:那就是开发更安全的产品。微软是首先响应的企业。我们必须认识到,要保证基本安全光是开发安全产品还不够,还要注重运作。如果想健康,光有健身设备还不行,还得真正锻炼。”[134]科技企业作为风险治理的相关方,应开发安全的产品。(www.daowen.com)

3.政府的立法

相对于前述公众、企业层面,这是从政府这一利益相关方的视角来谈人工智能风险的社会控制问题。例如,新加坡政府正在设立一个顾问委员会,评估人工智能和数据的伦理和法律应用,以及建议政策和治理,同时还将成立一个由法律和技术专家以及全球专家组成的小组,以支持咨询委员会。该委员会将提出可能的治理框架,包括风险评估框架,用于采用和部署人工智能和数据。这些措施将基于两个关键原则:由人工智能或与人工智能一同做出的决定应该是“可解释的、透明的、公平的”;所有的人工智能系统、机器人以及基于人工智能的决策都应该是“以人为本的”。[135]

就国内而言,如今,“刷脸”已变成大众体验创新、享受便捷的日常“标配”。然而,正如前述,人脸识别技术在各领域广泛应用,给人们生活带来便利的同时也出现了一系列问题,如人脸信息收集、存储、处理等使用规范欠缺导致的信息泄露安全问题等。公众也越发关注该技术在安全性方面面临的挑战。因此,行业亟需制定一系列标准和规范。鉴于此,在2019年11月20日举办的全国信标委生物特征识别分技术委员会换届大会上,由以商汤科技担任组长的27家企业机构共同组成的人脸识别技术国家标准工作组正式成立,人脸识别国家标准制定工作全面启动。[136]

值得注意的是,国家在立法控制人工智能社会风险的同时,相关的立法不能过细过死,否则可能会扼杀新技术推动社会发展的潜能。毕竟,人工智能是一项革命性的技术。它在未来究竟会有怎样的发展,会产生怎样的影响,目前还很难给出确切的估算。例如,有学者认为,人工智能的发展会带来巨大的就业冲击,因此应当立法限制人工智能的发展,将其应用限制在一定的范围内。试想,如果这样的法律通过,那么很多领域将不能享受到人工智能带来的生产率提升。这固然可以让工人们保住饭碗,但同时也消灭了发展的可能性。当然,技术进步对就业的冲击是必须承认的,这就需要出台相关的公共政策加以应对。[137]人工智能意味着游戏规则的改变。就风险而言,我们所生活的世界面临着因滥用人工智能而导致的风险,前述我们分别从人、技术、数据内容、人与技术关系等要素梳理探讨了人工智能的社会风险。对于人工智能的社会风险治理,则需要公众、机构和政府等所有利益相关方采取切实行动,面对选择,我们必须具有行动的勇气和智慧。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈