有了水面下7/8的基础后,如何形成水面上1/8的突破?我会结合最近的一个研究——算法与言论来和大家继续讨论。
大家知道,算法或者说规制算法是现在研究的一个热点。有人说我们迎来了“算法社会”,“Facebook”、谷歌、亚马逊或者我们国内的“BAT”对我们生活的影响可能不亚于政府,甚至更大。在一定程度上,算法的确使它的主要拥有者——商业巨头们,获得了一种近乎上帝的权力。那么,应该如何规制和监督算法?围绕这一问题的战斗其实已经开始,但战斗打响的方式却出乎意料。按理说,争论本应围绕如何规制算法和以何种标准规制展开,但半路杀出的一个“程咬金”却改变了战斗的走向和打法,这个“程咬金”就是“表达自由”。
为了抵制规制,商业巨头会声称算法是一种言论,算法的计算和对结果的呈现是在行使自己的表达自由。以搜索引擎的算法为例,甲公司在搜索结果中想把你排在什么位置或者移出排名,就相当于甲想“说”什么话,这完全是甲的“表达自由”。任何对甲算法的干预(规制)都变成对“表达自由”的侵犯。换言之,表达自由变成一个“门槛”,你要规制算法必须越过这个“门槛”。此时,表达自由变成规制算法的一个前置问题。我在研究算法规制时惊喜地发现,这与我水面下7/8的冰山联系起来了。
首先我做了一个检索。我发现,迄今为止有三个判例是关于算法的“表达自由”主张的:第一个是2003年的搜索王诉谷歌案(Search King v.Google),第二个是2006年的兰登诉谷歌案(Langdon v.Google),第三个是2014年的张(音译)诉百度案(Zhang v.Baidu)。在这三个关于算法与表达自由的判决中,算法三战全胜。
所以问题是,算法到底是不是表达自由呢?你会发现这回到了我熟悉的领域,回到了我自己那7/8的冰山上——尤其是“街角发言者”模式。算法是不是表达自由,可以被拆解成两个相互关联的子问题:一是主体要件,讨论算法(或程序、电脑和机器)是否是一个可以主张表达自由的主体。简言之,主体要件主要讨论算法(或程序、电脑和机器)是不是人。二是客体要件,这关乎算法生成的结果是否属于言论(speech),即算法或算法的结果是不是“话”。借用“街角发言者”模型,“表达自由”的主体要件要求站在肥皂箱上的必须是人,而不能是学舌的鹦鹉或一台录音机;客体要件则要求,站在箱子上的人说的必须是“话”,而不能是含糊不清或意义不明的声响。完成了对这两个要件的拆分,你会发现接下来的工作就会变得非常清晰。
先看主体要件——算法是人吗?反对的人的理由非常直接,“表达自由”是“人”的权利,算法不是“人”,所以算法没有“表达自由”。算法的支持者则是一个迂回的策略,承认算法不是“人”,但强调“人是在通过算法进行表达”,算法只是“人”表达的工具。我们继续回到水面下7/8的冰山,看看三大表达自由理论怎么看这个问题。
自主理论的回答很简单。“表达自由”和各种权利只能是“人”的权利。著名自主理论家埃德文·贝克说过,表达自由的主体只能是“鲜活的、由血与肉(flesh-and-blood)构成的人——即康德所说必须被视为目的(ends)的人”。人作为自主主体是自主理论确立表达自由保护正当性的基础。“我说故我在”,人因为言说才成为“人”;反之,也只有“人”才能言说。
自治理论在一定程度上也坚持“表达自由”只能属于“人”。自治理论关注的重点是投票和自我治理,而进行这些活动的主体只能是自然人或者公民。自治理论强调“表达自由”应为民主自治做贡献。比如,通过保护公共对话,选民可以获得更多的信息和知识,从而可以更加明智地投票。哥伦比亚大学法学院教授吴修铭所说“弗兰肯斯坦的怪物可以走路和说话,但它并没有资格去投票”其实就是从自治理论的角度出发的。更完整的表述或许应是:由于弗兰肯斯坦的怪物没有资格投票,因此尽管它能说话,但它的言论不是表达自由意义上的“言论”。同理,算法或人工智能哪怕可以发出一般意义上的“言论”,但由于算法和机器不是可以投票的公民,它们的“言论”仍然不是表达自由意义上的“言论”。与自主理论关注的“人”的自我实现和满足不同,自治理论侧重公民素质的提高。但“人”都是两种理论的关键,两者都认为表达自由有助于实现人这一主体的某种成长和完善,只不过前者关注的是道德维度,后者则是政治维度。
相比之下,思想市场理论在主体资格上并没设置什么障碍。一个可能的原因是自主理论和自治理论对表达自由的想象都是高度“人格化”的,两者都想象存在一个明确的主体——作为道德主体的人和作为政治主体的公民。但这种“人格化”和对主体的想象没有出现在思想市场理论中。按照霍姆斯的说法,“表达自由”是保护一个各种观点可以充分竞争的思想市场,而真理将从中产生。“观点”和“真理”——而不是“人”——才是思想市场理论的关键词。思想市场理论因此具有“言论不问出处”的倾向。理论上,如果其他主体——不管是媒体、公司还是算法和机器,只要能够产出观点,思想市场理论认为应该允许它们加入竞争。自主理论的目的是人的自我满足,自治理论的目的是让公民明智地投票,这两种目的都与“人”密不可分。换言之,自主和自治理论的目的离开“人”就无法实现,而思想市场理论的目的却无须“人”的存在。因此,在三大表达自由理论中,至少有两个是反对算法有“表达自由”的。算法反对者会死咬住这一点不放。
如果你是一个想赋予算法“表达自由”的人,你会怎么做?你应该不再纠缠算法和机器是不是“人”,而是强调算法只是“人”的工具。换言之,算法当然不是“人”,但算法的背后是“人”,而“人”需要通过算法和电脑来“说话”。经过这种转化,问题从“算法是否是人”变成了“人通过算法进行的表达是否算言论”。通过“揭开算法的面纱”,发现算法的背后其实是“人”。算法支持者的论证在两方面同时下功夫:一是突出算法言论背后“人”的因素,强调算法只是人的工具;二是淡化“算法”的自主性和主动性。算法和电脑被类比成没有任何自主性的纸和笔,它们只是新的、被人类用来表达的工具。算法支持者的论证可由一组递进的类比说明。
阶段一:张三为了唤起公众对北京空气质量问题的关注并引发更多讨论,选择办一份双周出版的刊物。每期刊物上,张三会从相关讨论中选择十篇质量最高的予以转载。那么张三的纸质出版物是不是表达自由?我相信多数人会说是。
阶段二:张三看到“纸媒”的衰落,决定办一个网站或一个微博、微信公众号,关注的是同样的问题,即北京空气质量,仍旧是刊登张三认为质量最高的十篇文章。从纸媒印刷搬到网站、微博或微信公众号,有没有改变张三的言论性质?我相信多数人会说没有。
阶段三:张三每天浏览网站,觉得太累,于是写了一个程序,设计了一个算法,替他从网上撷取质量最高、最具热度的讨论。程序里面的标准是张三自己定的。同样,主题仍然是北京空气质量,每天选择质量最高的文章予以转载。这个阶段算法开始加入了,这时候网站还是不是张三的“表达自由”。相信多数人在第二阶段的时候还认为是言论,但到第三阶段的时候分歧开始出现,有些人会觉得不是,但有些人觉得还是。
阶段四:张三把他的算法推而广之,从只抓取与北京空气质量有关的内容变为抓取一切领域内最具有质量和热度的内容。这其实就是我们熟悉的搜索引擎。那么,这个算法是不是张三的言论呢?所以你会发现,真正的难点是在第三阶段。很多人在第三阶段停下来了,认为加入算法之后就不是他的言论;但如果你认可第三阶段,认为加入算法之后这仍然属于张三的言论,那接受第四阶段的问题不大,因为这只是从一个领域拓展到所有领域。
算法支持者通过一系列类比,想表达的是从阶段一到阶段四只是一个工具的变化,是一个量变,不是质变,你能接受阶段一、阶段二,你也应该能接受阶段三、阶段四。算法虽然看起来更智能,机器性更强,但是它跟张三用的纸、笔、油墨、印刷机,以及后来建网站或微信公众号所用的软件没有区别,都只是张三的工具。
总体而言,在有关“表达自由”主体资格的讨论中,优势不在算法一边。无论是理论还是常识,都倾向于认为“算法不是‘人’”,从而不能享受表达自由保护。算法支持者更是看到了自己在主体资格问题上的劣势,才选择强调“算法只是‘人’表达的工具”。一方面,这相当于默认“只有‘人’才有表达自由”和“算法不是‘人’”;但另一方面,他们也聪明地回避了主体问题,并把争论逐渐引向了对客体问题——什么是言论——的讨论。
接下来考察客体要件,即算法或算法生成的结果是否属于“言论”。根据“街角发言者”模型,理论上只有同时符合主体和客体两个要件才能受到“表达自由”的保护,两者缺一不可,是并列关系。
但这时水面下7/8的冰山又派上用场了,特别是之前所总结的“三个阶段”中的第二个阶段。近年来出现了这样一种趋势:“表达自由”的保护重点逐渐从保护发言者(speaker)转向保护言论(speech)。比如,在波士顿第一国民银行诉贝洛蒂案中,最高法院宣称:“无论是来自公司、组织、工会还是个人,言论因可以使公众知情而具有的价值并不依附于言论的来源。”在公民联盟诉联邦选举委员会案中,斯卡利亚进一步阐明了上述立场:“第一修正案写的是‘言论’,而不是‘发言者’。第一修正案的文字不支持对任何一类发言者的排除……”
换言之,伴随着从“发言者”向“言论”的转化,主体和客体要件的并列关系变成了替代关系。客体要件逐渐成为“表达自由”关注的中心。如果说围绕主体要件的讨论总体上是不利于算法的,那么客体要件的情况则正好相反。表达自由理论和实践的发展,是站在算法这边的。换言之,机器人、公司、组织、会说话的鹦鹉和猴子,只要能说出有价值的话,就应该受到保护,而不在乎他是猴子、鹦鹉,还是机器人、算法或者公司。
具体到算法是否属于言论,争议集中在两点:一是认为算法的结果本质上更接近对信息的计算、汇聚和排列,而不是传统意义上的说和表达;二是算法、程序和电脑中机器或“非人”因素是否使其丧失言论属性。
针对第一个争议点,算法反对者通常主张,搜索引擎只是一个消极的平台或管道(conduit),而非主动的发言者。算法并不产生任何原创内容,而只是挑选和汇总别人的内容。算法对此的回应则是将自己类比成报纸。如搜索王诉谷歌案、兰登诉谷歌案和张诉百度案三份判决所体现的,算法的表达自由主张之所以得到法院支持,核心就在于法院认可了“算法选择≈报纸编辑=报纸说话≈算法说话”这一推理链条。
算法支持者最仰仗的先例就是1974年的《迈阿密先驱报》诉托尼罗案(以下简称托尼罗案)。该判决最重要的一点是,强调报纸对内容(如记者、读者投稿或约稿等)的选择和呈现就相当于报纸在说话。换言之,托尼罗案是“报纸编辑=报纸说话”或“编辑=言论”的开始。在此之后的司法实践中,“编辑职能”、“编辑裁量”和“编辑判断”等词一旦出现,往往意味着“表达自由”保护的获得。(www.daowen.com)
与“编辑=言论”相关,报纸和托尼罗案对算法的另一帮助是对“平台说”的回应。就像反对者主张算法只是平台一样,当年报纸的反对者也极力主张报纸只是汇集和呈现别人言论的平台。但美国最高法院明确表示:“报纸绝不仅仅是接收新闻、评论和广告的消极的容器或渠道。”报纸因对内容的编辑使自己从消极的平台转变为积极的发言者。在1995年的一份判决中,最高法院援引托尼罗案更直截了当地宣告:“第一修正案并不要求每位发言者在每次交流中都产出原创内容……报纸的评论版通常是将他人言论进行编辑性汇总,而这当然落在第一修正案保护的核心。”
无论是从逻辑推理还是现实效果,“比附”报纸编辑都是算法最有力的论据。在搜索引擎看来,算法对第三方内容的抓取、排序和呈现就相当于报纸编辑对稿件的选择和判断。谷歌工程师在一些场合中曾主张,用户使用谷歌和他们看报纸所追求的目的是一样的,就是冲着两者的“编辑判断”而来。人们看《纽约时报》和《华盛顿邮报》是冲着编辑的眼光、立场和品位;人们在使用谷歌进行搜索时,同样是因为谷歌算法的品质。人们视《纽约时报》刊登的内容为《纽约时报》的言论,因为这里体现了编辑对报道的内容、如何报道,哪些放在头版,如何设计配图、版式和字体等一系列问题的判断,所包含的心血、劳动和主观因素已经足以使这些内容变成《纽约时报》自己的言论。同样,搜索引擎对算法的设计、编写、优化和运营同样进行了大量的、主观的投入,这同样应该让算法成为“言论”。
在判例和推理上占不到优势的反对者,只有从直觉和常识出发。在他们看来,《纽约时报》上的报道或评论虽然可能是第三方所为,但人们仍然会说:“你有没有看到今天《纽约时报》上关于某某问题的文章?”但至少到目前为止,人们不会说:“你有没有看到今天谷歌或百度关于某某问题的搜索结果?”反对者认为,这种日常对话反映了一种朴素的认识——普通人并不把算法的结果视为他们的言论。但遗憾的是,法理和判例并未站在直觉和常识这边。
针对第二个争议点——程序和电脑所包含的自动、机器和“非人”成分是否会阻却算法言论属性的获得。还是以张三为例,多数人认可张三网站的第二阶段——张三把关于北京空气质量的双周刊“搬”到网上——属于言论,虽然借助了电脑、网络和网页制作软件,但这些工具中自动、机器的成分并没有压倒张三本人在判断和行为中“人”的成分。不过,当张三把算法加入网站后,多数人开始对这是否仍算言论打上了问号。为什么会有这种不同?与电脑和一般软件相比,算法似乎具有更多自动性和智能性。在不少人看来,这是在压倒张三言论中“人”的成分。如果我们想象,存在一个光谱,光谱的一端是最纯粹的机器性,另一端是最纯粹的人性。在算法反对者看来,如果说在Word和WPS中仍旧是人性压倒机器性,算法则已经滑向了机器性的极端。
作为回应,算法支持者这次拿来“比附”的是电子游戏。在2011年的布朗诉娱乐商人协会案中,最高法院宣布:“像先于游戏受到保护的书籍、戏剧和电影一样,电子游戏通过很多我们熟悉的工具(如文字、对话、情节和音乐)和具有独特特征的媒介(比如玩家与虚拟世界的互动)交流观点——以及一些社会信息。这足以赋予电子游戏以第一修正案保护。”
游戏程序的机器和智能成分使其具有高度的“互动性”。游戏反对者正是以“互动性”为突破口,强调游戏不同于报纸、书籍和电视从而不应受到保护。但在最高法院看来,“互动性”并非什么新鲜事物。安东尼·斯卡里亚指出,以1969年出版的《你的冒险:甘蔗岛》(The Adventures of You:Sugarcane Island)为标志,允许读者自行选择阅读顺序和情节走向的童书已经是具有“互动性”的媒介。法庭意见还提到波斯纳在另一份关于电子游戏判决中的观点,在波斯纳看来,所有文学都是互动的:“越好的文学,互动性越强。文学把读者成功地引入故事中,使他们认同角色,邀请他们评判角色并与之争论,体验角色的快乐和痛苦。”
应该看到,布朗案对算法的支持远不如托尼罗案直接有力。但算法支持者之所以如此仰仗布朗案,主要出于两个原因:首先是“举重以明轻”。游戏算法要比搜索算法中“人”的因素更少,且机器性和自动性更强。如果说搜索算法只是对检索指令的回应,游戏则涉及故事走向、游戏角色和玩家间的互动、美工设计和音乐等。如果“非人”成分更多的电子游戏都能受到保护,没有理由排除搜索算法。其次是“举轻以明重”。美国最高法院认为游戏与文学、戏剧和音乐一样,是传播和交流观点的新媒介。算法支持者紧紧抓住这点,主张搜索引擎在传播和交流观点上要比电子游戏明显得多。既然电子游戏已经因此获得保护,算法同样应被视为言论。
算法在客体问题上所占据的优势,很大程度上并不是纯粹理论和逻辑的胜利,而是源自现实。特别是我们之前提到过的“表达自由”发展的第二个阶段。换言之,并非表达自由理论倾向于把算法纳入保护,而是因为实践中已经有大量非传统、非典型的表达或行为被视作“言论”,这种“滑坡效应”使得算法很难被阻挡。
“表达自由”的历史就是一部扩张的历史。言论的内容、形式和边界已被极大拓展。首先,体现在“言论”的内容不断扩张。在政治言论之外,非政治言论、艺术作品、色情文艺、冒犯性言论、虚假事实陈述和仇恨言论等都被逐渐覆盖甚至保护。其次,“言论”的形式和边界也被不断颠覆。烧征兵卡、烧国旗、烧十字架、政治捐款、对艺术作品的资助和电子游戏也纷纷被“表达自由化”。在这种趋势下,既然已经有这么多不像言论的行为和表达被认定为“言论”,算法也变得不那么“离经叛道”。
面对算法受不受表达自由保护这样一个新问题,水面下的冰山至少会给你一个框架或抓手来思考问题。但是你会发现这么讨论下去,好像又没有尽头。因为围绕主体要件和客体要件的讨论,在很大程度上是本质主义。它假定事物存在唯一本质,并且这一本质是可被探求和把握的。然而,在“什么是发言者”和“什么是言论”这样的问题上,真的存在所谓“本质”吗?
但我们同样可以通过水面下的冰山——尤其是“街角发言者”模式——来实现对本质主义的超越。这种超越就是采取一种实用主义的进路。不同于本质主义,实用主义的进路不再纠结何为发言者和言论,而是直面真实世界中的成本收益分析和利益衡量。在算法是否应受表达自由保护这一问题上,一种办法就是在发言者本位(speaker-based)和听众本位(listenerbased)间进行选择。
先看发言者本位。如“街角发言者”模式所示,传统表达自由想象是发言者本位的。“表达自由”的首要关切是保护站在肥皂箱上的发言者而不是站在周围听他演说的听众。“说”——而非“听”——才是关键。“说”则必然涉及“谁在说”,“表达自由”是一项属于“人”的权利,站在肥皂箱上的必须是一个有血有肉的“人”。因此,发言者本位会在主体资格问题上持一种原教旨主义立场——发言者只能是有血有肉的“人”,也只有“人”的言论才应受到保护。只要是“人”的表达,不管多么抽象和非典型(如勋伯格的音乐、波拉克的画甚至糕点师傅做的蛋糕等),都更有可能被认定为言论;反过来,只要表达不是来自“人”,无论其多么清晰和接近“观点的交流”,都容易因主体资格问题而被“一票否决”。
站在发言者本位,电脑和程序显然不是“血与肉构成”的“人”,因此算法很难获得保护。借用“街角发言者”和“肥皂箱”的比喻,算法就相当于把一台电脑放到了肥皂箱上,哪怕这台电脑可以发声,由于它不是“人”,因此无法作为言论受到保护。在发言者本位下,算法要想获得保护只有一种途径,即证明它有助于促进自然人的表达。算法支持者主张“算法只是人进行表达的工具”,就是遵循这一逻辑。但从严格的发言者本位出发,算法和人之间的这种联系还是太间接和牵强了。再者,算法所具有的智能性使其有可能与自然人构成某种替代和竞争关系。换言之,保护算法的言论反而有可能伤害发言者的利益。因此,发言者本位倾向于不认可算法享有“表达自由”。
再看听众本位。听众本位则倾向于赋予算法表达自由保护。听众本位在一定程度上是伴随着大众媒体时代的到来而出现,也就是前文提到过的第二阶段。在著名的“红狮案”中,面对广播这一新兴大众媒体,最高法院的意见代表了对听众本位最早的表述:“作为整体的人民(peop le as a whole)享有无线电广播上表达自由的利益……最重要的是,表达自由是观众和听众——而不是广播者——的权利。”简单来说,在大众媒体的时代,听众——而非发言者——可能才是普通公民更真实的身份。“受众”“注意力稀缺”“注意力经济”“接近权”等概念的出现也佐证了上述趋势:相对被动的听众、观众和读者才是大众在现实中的角色。站在听众的立场上,听众本位更关注公民能否接收到更多言论或获取更多信息,而不是言论从哪里发出。
一方面,听众本位的“言论不问出处”使它不再执着于发言者的主体资格,而是聚焦言论内容的质量。照此逻辑,一些人的言论虽然在语言学意义上毫无争议地属于“言论”,但如果这些言论对其他听众没有价值和意义,那么就不值得保护。如米克尔约翰所言:“不是所有的话都被说出,而是所有值得被说的话都说了出来。”另一方面,一些表达和内容如果对听众有意义,那么无论其来自哪里,都理应受到保护。将听众本位推到极致,就好比一只猴子或鹦鹉说出的“话”对人类是有价值的(而不是简单学舌),那么猴子和鹦鹉的“话”同样可以受到保护。于是,听众本位为保护算法(以及其他任何非人主体)的言论打开了一道门——只要这些非人主体(不管是算法、鹦鹉、强人工智能还是外星人)的言论能够被证明是有益于人类听众的,那么它们就应当受到保护。
作为算法表达自由问题的延伸,“发言者本位v.听众本位”对思考强人工智能(Strong AI)——也就是俗称的机器人——的言论是否应受保护同样可以提供借鉴。强人工智能即通用型人工智能(Artificial General Intelligence,简称AGI),它是相对于“专用型人工智能”(Applied AI)等形式的弱人工智能而言,即可以胜任人类所有工作的人工智能。《终结者》和《机器姬》等科幻作品中智能和体力都不逊于甚至优于人类的“机器人”可以算作强人工智能的一种。引发埃隆·马斯克、霍金和“OpenAI”组织等担忧的、可能取代人类的,也是强人工智能。
强人工智能“表达自由”争议仍旧围绕着“人”与“非人”展开。与算法相比,强人工智能在“人”与“非人”间可能更具张力。从“人”的方面看,强人工智能无论从智能还是外形可能都更接近甚至超过“人”。对绝大多数人来说,谷歌和百度的算法等同于说话是反直觉和反经验的。但当强人工智能到来的那一天,一个无论外形、语言和声音都与人类一模一样的“机器人”与你交谈,直觉和经验可能都会告诉你这是一个“人”在“说话”。
但如果考察“非人”的一面,强人工智能背后仍旧是算法、数据、机器和电脑。换言之,强人工智能仍然不是“人”。而且与相对“简陋”和“半自动”的搜索引擎算法相比,强人工智能更加智能和“像人”的背后其实是更多的自动性和自主性,这反而意味着更多“非人”因素。
强人工智能的言论是否应受到“表达自由”保护?我们当然可以采取本质主义的进路,从主体与客体两方面去探讨强人工智能是否满足“表达自由”的要件。但就像通过本质主义解决算法的相关问题一样,这种进路难免会再一次走入“无底洞”。从客体的角度来看,强人工智能的言论无论从内容还是形式上,都会与人类最标准和典型的言论难以区分。甚至无须强人工智能的到来,今天苹果的“Siri”、亚马逊的“A lexa”、百度的“度秘”、微软的“小冰”和谷歌的“A llo”都已无限接近这点。这些表达无疑要比算法、政治捐款以及很多象征性行为更像“言论”。但从主体要件来看,又会形成新的分裂。一方面,假设强人工智能通过了图灵测试,那么这些从外观、思维和情感都与人类无异的主体,为什么不能被看成是“人”?另一方面,如果坚持只有“血与肉”构成的主体才是“人”,那么无论强人工智能多么像人,不是人就永远不是人。而这种追问又会陷入“什么是人”和“什么是言论”的新一轮循环。
但“发言者本位v.听众本位”的实用主义进路多少有助于跳出上述循环。如果选择发言者本位,“表达自由”就是保护有血有肉的自然人的表达,无论强人工智能多么“能说会道”,由于它无法直接服务于自然人表达的利益(甚至还可能形成竞争和替代),因此它们的言论不应受到保护。但如果站在听众本位,有价值的信息和言论对听众越多越好。因此,强人工智能的言论只要能够被证明对人类是有意义和价值的,就应该受到“表达自由”保护。照此逻辑,甚至强人工智能间的对话,只要这些内容对人类听众是有价值的,同样应该受到保护。
以上就是我对算法与言论以及由此延伸出来的强人工智能与言论的思考。在这里向大家分享这块研究,并不是说我做得有多么好,或者一定要大家同意我的观点。而是我希望给大家展示一下,当你拥有自己水面下相对稳固的7/8冰山时,如何形成水面上那1/8的突破。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。