理论教育 智能传播:构筑新闻生产的算法责任伦理

智能传播:构筑新闻生产的算法责任伦理

时间:2023-11-22 理论教育 版权反馈
【摘要】:法律、法规的制定永远落后于新技术的发展,在应对和处理算法风险上,算法伦理的探讨与共识应走在前列。笔者认为应当用责任伦理的视角认识和构筑算法伦理,即“算法责任伦理”。新闻生产中的算法价值观,首先是体现公共利益的,而不是符合少数人的。新闻生产的算法责任伦理体系应当包括什么内容?

智能传播:构筑新闻生产的算法责任伦理

法律、法规的制定永远落后于新技术的发展,在应对和处理算法风险上,算法伦理的探讨与共识应走在前列。目前国外科学技术界提出了很多涉及算法伦理的倡议,如阿西洛马人工智能原则(Asilomar AI Principles)、美国计算机协会提出的算法透明和可责性七项原则。

新技术条件下的新闻伦理也需要做出调整,以应对不断拓展的新闻边界和不断涌现的新技术、新问题,智媒时代的新闻伦理应是融合技术伦理的“混合伦理”。

考虑到新闻业的公共事业属性,对算法伦理的接纳不能采用“拿来主义”,照搬科学技术界的标准。如何构筑新闻生产的算法伦理?笔者认为应当用责任伦理的视角认识和构筑算法伦理,即“算法责任伦理”。

责任伦理最早由马克斯·韦伯(Max Weber)提出,是相对于信念伦理而言的。信念伦理的价值根据在于行为者的目的、动机和意图,拒绝对行为的后果承担责任。责任伦理则相反,强调行为后果的价值和意义,认为人应当对自己的行为承担责任,理性而审慎地行动[12]

在技术领域,技术员在设计程序、攻克问题时往往强调技术的工具理性和特定技术目标的达成,较少涉及价值理性。一些企业追逐开发一切技术上可能被开发的事物,忽视了技术造成的全面影响,出现“计算机和信息技术的非道德神话[13]。当算法介入新闻生产时,不能因为所谓的“技术中立”,就无视责任的承担、无视技术本身所附着的风险和价值观。新闻生产中的算法价值观,首先是体现公共利益的,而不是符合少数人的。2018年3月,英国“媒体改革同盟”发布的《英国广播公司的未来》报告认为,英国广播公司的算法逻辑应该以公共服务为目的,同时给予执照费缴纳者参与甚至控制算法调整的权力。

新闻生产的算法责任伦理体系应当包括什么内容?笔者认为公平、准确、透明、可解释、可审计、责任等原则是重要内容。

(1)公平:算法运行系统的设计需要体现社会公平,考虑社会的多元性和不同的价值观,尽可能避免偏见的数据或偏见的算法设计导致对某一特定群体的歧视。因此算法设计的公平需要纳入利益相关者(stakeholders)的利益。关于个人决策的算法都应该评估其歧视性影响,评估的结果和标准应该公开发布并加以解释[14]。(www.daowen.com)

(2)准确:无论是输入时的数据错误,还是输出时统计上的不确定性(statistical uncertainty),算法总会存在错误。需要识别、记录和测试整个算法及其数据源的误差和不确定性[14]

(3)透明:让利益相关者知道某一算法的设计意图、设计目标、运行效率、适用条件和存在的缺陷,了解算法的运行机制和做出特定决定的原因[15]

(4)可解释:算法系统产生的任何决策都应该向利益相关者进行解释。这些解释必须便于利益相关者理解,而不是用专业的技术知识“应付”利益相关者。

(5)可审计:开发算法时应该允许第三方分析和检查算法。

(6)责任:遵守法律、法规,如果出现错误,应有责任主体及时修复、中止服务,并及时更正,对造成的损失承担责任。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈