理论教育 消除人工智能偏见与歧视

消除人工智能偏见与歧视

时间:2023-08-15 理论教育 版权反馈
【摘要】:我们在前面第2章中也曾经从作为身体的人工智能与社会的关系角度探讨了人工智能的偏见和社会歧视问题。在另一项研究中,有偏见的AI将男性的名字与职业导向、数学和科学词汇联系起来,同时将女性的名字与艺术概念联系在一起。[129]如果我们能够恰当地解决AI偏见和AI歧视,我们完全有可能创造出比创造者更少偏见的人工智能,那么人工智能将使生活变得更美好。

消除人工智能偏见与歧视

正如前述,人工智能依赖于海量数据,强大的算法可以分析这些数据,然后得出结论,做出相应的预测等。但是,如果人工智能所依赖的数据本身存在偏见,比如带有种族主义性别歧视的语言,那么这会影响结果。这是一种基于人工智能数据内容本身的风险表现。我们在前面第2章中也曾经从作为身体的人工智能与社会的关系角度探讨了人工智能的偏见和社会歧视问题。这是智能社会已然存在的社会风险表现之一。例如,有偏见的人工智能在选美比赛中选择了浅色皮肤的选手,而非深色皮肤的选手。一种带有偏见的谷歌算法将黑脸归类为大猩猩。在一项研究中,一个有偏见的人工智能筛选简历,会更倾向于欧裔美国人(相对于非裔美国人)。在另一项研究中,有偏见的AI将男性的名字与职业导向、数学科学词汇联系起来,同时将女性的名字与艺术概念联系在一起。[128]

正如偏见部分来源于人工智能所依赖的数据,解决偏见的方法之一便是从数据本身的质量入手。解决数据偏见问题的第一步是在数据收集过程中建立更大的透明度。它是从哪里来的?它是怎么收集的?是谁收集的?我们以人类语言中的性别歧视为例。人类语言中往往隐藏着性别歧视。例如,“可爱”被认为是一个女性专用词,而“辉煌”等于男性,同样还有“家庭主妇”与“计算机程序员”配对。在职业上,这种性别歧视最极端的例子是,哲学家战斗机飞行员、上司和架构师等这些工作通常与“他”有关。而与“她”相关的职业包括家庭主妇、社交名媛、接待员和理发师。微软研究院的程序员亚当·卡莱正与波士顿大学的研究人员合作,试图从计算机中删除这种偏见。该研究小组发现,他们可以训练机器忽略单词的某些关联,同时保持了所需的关键信息。他们解释称:“我们的目标是减少单词配对的性别偏见,同时保留其有用的属性。”通过调整他们的算法,该小组能够去除单词之间的某些关联,如“前台”和“女性”,同时保持合适的单词配对,如“女王”和“女性”。[129]如果我们能够恰当地解决AI偏见和AI歧视,我们完全有可能创造出比创造者更少偏见的人工智能,那么人工智能将使生活变得更美好。(www.daowen.com)

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈