理论教育 AI社会学:身体相关的人工智能技术与社会歧视

AI社会学:身体相关的人工智能技术与社会歧视

时间:2023-08-15 理论教育 版权反馈
【摘要】:就技术层面而言,AI偏见或歧视来源于数据和算法的限制。在这一方面,如果数据训练量不足,那么就会造成AI学习的不完备,其也就可能作出错误的判断。[41]从根本上来说,人类应该把AI的歧视当作一面镜子,仔细审视自己在社会活动中种下的祸根。只有学习的内容消失了,AI才可能避免产生歧视的问题。

AI社会学:身体相关的人工智能技术与社会歧视

1.社会歧视的主要表现

其一表现在性别歧视。虚拟助理是人工智能的一个主要应用,但一些虚拟助手的声音却多是女性的声音。例如,苹果Siri虚拟助手是女性声音,这被认为是一种性别歧视。再如,性爱机器人也多以女性的身体形态而出现。其二表现在种族歧视。一个最为典型的例子发生在2015年6月,谷歌照片应用的算法曾经错误地将黑人分类为“大猩猩”,引发了轩然大波。

2.AI歧视的原因(www.daowen.com)

对此,研究者试图从技术和社会文化两个层面去寻找原因。就技术层面而言,AI偏见或歧视来源于数据和算法的限制。AI对事物作出的判断不是凭空或者随机而得的,它必须要经过一系列的训练学习才可以。如果要对AI进行训练,那么就要首先收集相关领域的大量数据来供其学习。在这一方面,如果数据训练量不足,那么就会造成AI学习的不完备,其也就可能作出错误的判断。例如,如果你在Google图片搜索当中以“幸福家庭”为关键词进行搜索,搜索结果当中前100张图片中有81个属于白人家庭。如果把这样的搜索结果归罪于谷歌程序员是错误的。Google搜索结果只是更广泛地反映了在线历史内容缺乏多样性。[40]因此,改善AI歧视的一个办法便是改善数据集。

就社会文化层面而言,在一定程度上,AI偏见和歧视实际上是人类偏见的一种显现和强化。例如,著名的人类学家马林诺夫斯基成功塑造了一个理想的田野工作者形象:他不仅善于自我调节以适应异乡的环境,还具有超乎常人的同理心和同情心,能够实现自我土著化,并由此获得一套关于土著如何思想、感受和理解的知识。直到1967年,马林诺夫斯基写于1914—1915年和1917—1918年两次田野期间的日记由其遗孀出版。在这部日记里,人们吃惊地发现马林诺夫斯基对其土著不仅毫无同情心,还充满了轻蔑和鄙夷(在他的民族志作品里,这些土著被描写成最聪明、高贵、正直的人)。[41]从根本上来说,人类应该把AI的歧视当作一面镜子,仔细审视自己在社会活动中种下的祸根。由此,不断减少自己实际意义上的歧视和偏见。只有学习的内容消失了,AI才可能避免产生歧视的问题。[42]

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈