公平一直是人类社会追求的最基本的伦理价值,也是社会主义社会价值体系的核心内容[8]。当前,人工智能等新兴技术越来越多地参与到公共安全风险治理的决策工作中,在风险预测、监测、处置等很多方面逐渐取代了人类,某种意义上其从一种工具变成了人类的“代理人”。众所周知,人类的行为会受到道德、法律法规的约束,但是对于新兴技术的约束,现阶段并没有完全一致的监管方案。而令人遗憾的是,新兴技术背后的智能算法隐藏着偏见和歧视,并引发了社会各界的高度关注。因此,智能算法与人类决策,谁为主导?这恐怕不是一个“to be or not to be”的问题,其核心关键是要回答如何确保智能科技决策的公平性。
一是加强制度化监管,建立与完善人工智能法律法规。应进一步加强法规建设,规制和监管人工智能在公共安全领域的健康应用,提高算法的可解释性与公平性。其中,可解释性是指用通俗易懂的语言,向最终用户和其他利益相关者清晰地解释自动化算法决策以及支撑这些决策的数据;公平性是指避免自动化算法决策中出现无意识的歧视。当前,科学家已经在探寻规制算法歧视的技术路径,主要包括“有反歧视意识的数据挖掘技术”(Discrimination-Aware Data Mining,DADM)和“公正、负责及透明机器学习”(Fairness,Accountability and Transparencyin Machine Learning,FATML)[9]。与此同时,加强算法责任机制的法规设计,以减轻负面的社会影响或潜在危害。如欧盟在2019年4月发布《算法责任与透明治理框架》,提出建立分类分级监管机制;同月,美国国会议员提出的《算法责任法案》要求针对符合条件的主体的高风险自动化决策系统,建立自动化决策系统影响评估机制,评估自动化决策系统及其开发过程(包括系统的设计和训练数据),以评估其在准确性、公平、偏见、歧视、隐私、安全等方面的影响[10]。不过当前这一法案提出的“算法影响评估”机制仍存在较大争议,尚未被美国国会通过。
二是强化行业自律,倡导科学引领性的人工智能伦理规范。我国《新一代人工智能治理原则》指出,“通过持续提高技术水平、改善管理方式,在数据获取、算法设计、技术开发、产品研发和应用过程中消除偏见和歧视”,这就是对设计者、生产者的要求[11]。近年来,国际电气和电子工程师协会、微软、谷歌等一些行业机构、企业等日益重视人工智能伦理,强化对人工智能等新兴技术的算法治理。有学者认为,在算法公平中,公平理念应纳入算法完整链条中,算法结果公平和过程公平同样重要[12]。因此,可通过技术正当程序来加强自主决策系统中的透明性、可问责性以及被写进代码中的规则的准确性。例如,谷歌大脑团队公布了“可解释性的基础构件”的研究成果,将算法比喻成“人工神经网络的核磁共振成像”,这种开源化处理使得其他技术人员能够在此基础上编写适用于不同算法和场景的解释性算法。在人员培养方面,建立算法研发与数据采集从业人员的伦理规范以及塑造他们的社会责任感非常重要[13]。(www.daowen.com)
三是推进“人—机”协同,建立更加符合认知和技术发展要求的新模式,探索人工智能公共安全创新应用落地。目前来看,人工智能技术短期内无法在公共安全领域完全替代人类进行独立决策,人工与机器智能将长期并存。良好协调的“人—机”合作模式能够最大限度地发挥人类决策和机器智能的相对优势。因此,各方应针对技术本身的局限,寻求良好协调的“人—机”合作模式,提供高质量的自动化工具和针对性的解决方案,探索布局自然灾害、事故灾难、公共卫生、社会安全等公共安全领域智能科技应用。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。