理论教育 人工智能社会学:AI成为社会控制对象

人工智能社会学:AI成为社会控制对象

时间:2023-08-15 理论教育 版权反馈
【摘要】:人工智能作为社会控制工具的同时也会被不法分子用作越轨工具。因此,人工智能又同时作为社会控制对象。中国超声医师协会超声分会曾于2018年讨论研究并发表了《中国超声医学人工智能行为准则》。相关人工智能公司也应关注人工智能可能的越轨行为及相应的社会控制措施人工智能公司作为人工智能研发应用的利益相关方,理应关注人工智能可能的越轨行为及相应的社会控制措施。

人工智能社会学:AI成为社会控制对象

人工智能作为社会控制工具的同时也会被不法分子用作越轨工具。因此,人工智能又同时作为社会控制对象。

(1)技术研发人员和社会行业组织应及时制定人工智能行为规范

例如,就智能机器人的社会控制而言,艾萨克·阿西莫夫曾于1942年在他的科幻小说里描述了规范机器人行为的三定律,包括:不能伤害人类、服从人类命令和保护自己。后来又补充了第零法则:机器人不得伤害人类整体,或袖手旁观坐视人类整体受到伤害。“机器人不能伤害人,但机器人会以什么方式伤害到人?这种伤害有多大?伤害可能以什么形式出现?什么时候可能发生?怎样避免?这些问题在今天要么需要细化,要么需要有更具体的原则来防范,而不能停留在七八十年前的认识水平。”[103]为此,2017年,AI研究机构艾伦人工智能研究院院长、华盛顿大学教授Oren Etzioni提出了“人工智能三定律”,认为这是相对而言避免AI伤害的更为具体的办法,包括:AI系统必须遵守其操作人员的所有规则;AI系统必须清楚地表明它不是人类;若未经该信息来源方的明确许可,AI系统不能保留或披露机密信息。[104]显然,相对于阿西莫夫的机器人三定律而言,这三条规则更为具体:AI系统必须清楚地表明它不是人类。例如,Twitter上曾有一个模仿美国总统的机器人账号,AI系统不仅发出假的推文,它们也发布假新闻视频。若未经该信息来源方的明确许可,AI系统不能保留或披露机密信息。例如,有越来越多的智能设备进入我们的家居场景中,这些AI系统能记录和分析信息,它们可能会记录下家庭中所有的谈话内容,包括那些私密的,或您的孩子可能无意泄露给AI的信息。这些就是你要确保管控的信息。

因此,为了规范自主机器人的发展和应用,我们需要更加详实的机器人伦理学指导原则。英国标准协会曾于2018年9月15日召开的“社会机器人和AI”大会上正式发布了一套机器人伦理指南,即《机器人和机器系统的伦理设计和应用指南》。这个伦理指南开头给出了一个广泛的原则:机器人的设计目的不应是专门或主要用来杀死或伤害人类;人类是负责任的主体,而不是机器人;要确保找出某个机器人的行为负责人的可能性。例如,如果自主化的无人机在行动中出了叉子,或者无人驾驶汽车出了车祸,必须有这么一些法律可以帮助人们确定责任归咎于谁,是机器的设计者、程序员、制造商还是操作人员。为了明确责任归属,必须使自主化系统保留详尽的日志,由此人们便可以在必要的时候弄清楚系统各种决定背后的依据等。[105]这个伦理指南主要针对的人群就是机器人设计研究者和制造商,希望保证人类生产出来的智能机器人,能够融入人类社会现有的道德规范。

人工智能技术的应用不仅代替了人的一些体力劳动,也代替了人的某些脑力劳动,有时甚至行使着本应由人担任的职能,因此,这免不了引起法律纠纷。比如医疗诊断专家系统万一出现失误,导致医疗事故,怎样来处理,开发专家系统者是否要负责任,使用专家系统者应负什么责任等。中国超声医师协会超声分会曾于2018年讨论研究并发表了《中国超声医学人工智能(USAI)行为准则》。

中国超声医学人工智能(USAI)行为准则北京宣言(2018年10月27日)[106]

制定规范、科学管理

1.超声医学人工智能应用及研发应规范、实用,科学管理,以提高医师诊断正确率和患者满意度为目的。

2.研究设计及应用需经伦理委员会审批,包括数据、产品及社会伦理等。

3.切实有效的超声数据图像采集规范和标准化,确保为人工智能的研发与准确率的持续提升提供高质量的数据保障。

4.制定USAI的准入和行业标准,为企业的人工智能软硬件研发、医院的人工智能临床应用等提供规范和依据。

5.防止“人机大赛”泛滥、娱乐化。

6.符合临床证据进行科学预测,防止做不合医学逻辑、没有临床价值的伪预测。7.从临床问题入手,注重临床指南和医学评价体系,关注统计误差造成的风险。

实现医工结合、促进转化

8.USAI系统的开发和评估需要与以临床为中心,设计与临床问题保持一致。

9.对患者、医生、医学生、其他卫生保健专业人员和卫生管理人员进行USAI研发及应用培训教育,以促进人工智能在超声医疗相关领域的应用并了解其局限性。

10.防止炒作、夸大或过度研发,提倡适当的专业指导和政府监督。处理好临床、研发、伦理、科研关系。

以临床为中心,使患者利益最大化

11.对USAI研发与应用进行规范化督导和评价,并分析将人工智能系统集成到医疗服务中的利害关系。(www.daowen.com)

12.为使患者利益最大化,医生必须进行专门培训。

13.界定责任或知识产权问题,使USAI合理合法。

中国医师协会超声医师分会

可以预料,未来将会出现更多的与人工智能的应用有关的伦理和法律问题,需要社会在实践的基础上从伦理和法律角度作出对这些问题的应对方案,使人工智能技术为人类的利益作贡献。

(2)相关人工智能公司也应关注人工智能可能的越轨行为及相应的社会控制措施

人工智能公司作为人工智能研发应用的利益相关方,理应关注人工智能可能的越轨行为及相应的社会控制措施。谷歌曾于2014年收购了Deep Mind人工智能公司,为此,谷歌在伦敦专门成立了一个专家小组以应对“人工智能威胁”。Deep Mind负责人戴米斯·哈萨比斯及其团队正在为谷歌服务建造使用人工智能的机会,这家公司正教授电脑像人类那样思考,提高人工智能技术帮助谷歌服务实现技术突破。谷歌也担心以这种方式开发的电脑会产生威胁,为此该公司成立了“道德委员会”,其任务就是确保人工智能技术不被滥用。谷歌CEO皮查伊曾经发表文章,描绘了谷歌AI使用原则:

我们将根据以下目标评估AI应用。我们认为AI应该:1.对社会有益。2.避免制造或加强不公平的偏见。3.建立并测试安全性。4.对人负责。我们将设计能够提供反馈、相关解释和说明的AI系统。我们的AI技术将接受适当的人类指导和控制。5.纳入隐私设计原则。在开发和使用AI技术时我们将融入隐私原则。我们将提供通知和同意,鼓励具有隐私保护措施的架构,并对数据的使用提供适当的透明度和控制。6.坚持科学卓越的高标准。7.为符合这些原则,对AI的使用进行评估。除上述目标外,我们不会在以下应用领域设计或部署AI:已造成或可能造成整体性伤害的技术。在存在重大伤害风险的情况下,我们只会在我们认为好处远远超过风险的情况下继续进行,并且会纳入适当的安全限制。武器或其他主要目的是导致或直接造成人身伤害的技术。收集或使用信息的技术违反国际公认的规范。其目的与国际法和人权普遍接受的原则相违背的技术。[107]

(3)政府管理部门应加快制定相关管理规范

人工智能及其落地应用中存在的一些问题引发了人们对诸如隐私、透明度、安全性、工作以及整体经济等方面的担忧。为此,政府管理部门应该回应人们对AI技术应用的社会关切,应加快制定相关管理规范。例如,面部识别技术可以提升用户在社交媒体上的体验。但同样的技术也可以用来提升监视效果,牺牲个人隐私。再如,据报道,随着AI技术走红以及门槛降低,售卖明星换脸的淫秽视频已经成为一门地下生意。某贴吧中有标榜“换脸+女明星姓名”的发帖者,售卖通过AI换脸技术合成的视频,多位知名女明星频被提及。某二手交易平台上还有卖家提供“定制换脸”服务。买家提供明星或私人照片,卖家即可将淫秽视频中的主角“移花接木”。售卖AI换脸淫秽视频,本身已经是传播淫秽物品牟利罪,同时也侵犯了肖像权。而买家购买之后加以传播或者以传播牟利,则可能构成违法。[108]甚至于部分违法分子利用AI技术谋取不当利益已经形成了一条隐秘的灰色或黑色产业链

因此,人们越来越对数据收集和决策的透明度和责任性感到担忧。这种担忧将会加速伦理原则和相关法律规范的制定。例如,2018年5月25日,欧盟全面实施《欧盟一般数据保护条例》,这被认为是20年来数据隐私条例的最重要变化之一,为所有欧盟民众保护和授权数据隐私,并将重塑整个欧盟地区的数据隐私保护形式。

《欧盟一般数据保护条例》(GDPR)[109]要点概述

规定针对从欧盟公民处收集数据的企业:该规定不限于总部在欧盟地区的企业,而是覆盖到从欧盟公民处收集数据的所有组织。GDPR要求此类企业反思其条款和条件(解释该公司如何使用个人数据来销售广告)中的内容,强制企业遵循Privacy by Design原则。

数据转移权:该规定声明,用户可要求自己的个人数据畅通无阻地直接迁移至新的提供商,数据以机器可读的格式迁移。这类似于在不丢失任何数据的情况下更改移动运营商或社交网络。对于谷歌、Facebook等名副其实的数据挖掘公司和较小的数据科学创业公司而言,这就像是敲响了丧钟,当用户不再使用该公司产品时,它们将会丢失大量数据。

被遗忘权:GDPR第17条强调,每个数据主体有权要求数据控制者删除个人数据,并且不能过分延长数据留存时间,控制者有义务遵循该规定。这对以cookie形式收集数据、从定向投放广告中获取收益的技术巨头而言是一项巨大损失。

算法公平性:自动决策的可解释权指出数据主体有权要求算法自动决策给出解释,有权在对算法决策不满意时选择退出。例如,贷款申请人被自动决策拒绝时,有权寻求解释。对于技术公司而言,这是对人工智能的严重限制,将大幅减缓AI技术的发展。

对于欧盟公民来说,该条例统一数据保护法规,增加技术公司在收集用户数据时的责任,从而保护了公民权利。再如,就中国而言,关于自动驾驶技术及其管理规范,交通运输部负责人曾经表示:“交通部高度重视自动驾驶技术,正在积极推动技术研究,同时,也在编制规划,起草相关技术规范。”[110]目前,交通部正在积极推动技术研究,也在编制规划,起草技术规范。与此同时,交通部还在建设测试基地,并和有关部门共同制定路上测试的相关指导文件。

总之,我们要注重制定AI政策。AI政策分为短期政策和长期政策。短期AI政策侧重于当前社会需要解决的问题。这些问题包括无人驾驶汽车的责任问题、相对小规模的工人下岗问题、算法偏差等。[111]长期AI政策侧重于未来向度,即考虑智能AI所带来的AI安全风险或不稳定性。当然,短期和长期、现实和未来之间的这种区别并不是一成不变的。如果说本章思考和探讨的是现实层面的AI越轨行为与社会控制,那么下一章我们将注意力转向未来或长期层面的AI风险问题。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈