您现在的位置是:首页 > 思潮碰撞

左亦鲁:算法无所不在,言论如何自由?

火烧 2019-04-19 00:00:00 思潮碰撞 1025
文章探讨算法是否应受言论自由保护,分析算法在社交媒体中的影响及规制难题,强调算法中立性与言论自由的矛盾,为算法规制提供参考。

  

  《社交网络》剧照:facebook引发的算法革命

  

  本文作者:左亦鲁,北京大学 法学院助理教授。本文发表于《环球法律评论》2018年第5期,发表时原题为《算法与言论:美国的理论与实践》,推送编辑为公号编辑所拟。

 

  01

  导论:从算法规制到言论自由

  我们正生活在一个算法社会(an algorithmic society)。与我们生活息息相关的各种经济和社会决策,很多都在通过算法做出。由此就有了一种说法:“当人们谈论‘算法’时,如果把这个词换成‘上帝’,意思也不会有什么不同。”抛去其中戏谑的成分,这种比喻至少抓住了算法的两大特点:无处不在和全知全能(omniscient)。

  在一定程度上,算法的确使它的主要拥有者——商业巨头们——获得了一种近乎上帝的权力。那么,应该如何规制和监督算法?围绕这一问题的战斗已经开始,但战斗打响的方式却出乎很多人意料。按理说,争论本应围绕如何规制算法和以何种标准规制展开,但半路杀出的一个“程咬金”却改变了战斗的走向和打法——这个“程咬金”就是言论自由。为了抵制规制,商业巨头开始声称算法是一种言论,算法的计算和对结果的呈现是在行使自己的言论自由。如果以搜索引擎的算法为例,甲公司在搜索结果中想把你排在什么位置或甚至干脆踢出排名,就相当于甲想“说”什么话,这完全是甲的言论自由。任何对甲算法的干预(规制)都变成对甲言论自由的侵犯。

  用学者弗兰克·帕斯奎尔(Frank Pasquale)的话说,言论自由已成为算法对抗规制的一张“万能牌”(wild card)。每个试图规制算法的尝试,都必须先通过“算法是不是言论”或“规制算法是否侵犯言论自由”这道门槛。到目前为止,算法的言论自由主张取得了全部法庭交锋的胜利。在法律之外,这张万能牌使算法在政治、舆论和话语权争夺中同样占据制高点。“言论自由”这一前置问题似乎正成为规制算法一道难以逾越的门槛。算法的重要性和规制算法的必要性无需赘言。因此,如何认识言论自由——这道门槛——就显得尤为重要。算法是言论吗?或者说,算法应受言论自由保护吗?

  本文将聚焦这一算法规制的前置问题。本文的讨论主要基于美国的实践与理论,但也有着超越特殊性的普遍意义。首先,谷歌、脸书、苹果、微软和亚马逊等掌握着算法的巨头是跨国而非简单的“美国”公司,它们会把相似的逻辑、策略和话语带到其商业和技术帝国的每寸疆土。其次,言论自由这张“万能牌”也会被其他国家的巨头在其他地方模仿和使用。正如已有判例所体现的,用言论自由对抗算法规制目前保持三战全胜,它已经成为了现有“工具箱”中最好用的工具。第一修正案相关的法律或许是美国独有,但言论自由作为一种权利和话语却超越国界。打出这张“万能牌”,不仅有助于商业巨头在法律战中获得优势,也使得它们可以在政治和舆论战中占据高点。最后,“算法受不受言论自由保护”的背后其实涉及的是算法的本质。这是一个更为根本和普遍的问题。我国近期围绕算法推荐新闻产生的争议中,对“算法中立性”的讨论其实是同一问题的不同侧面。不管是算法是否是言论,还是算法是否中立,都试图通过思考算法的本质殊途同归地回答这样一个问题——是否应该以及如何规制算法。在此意义上,梳理美国在此领域的经验以及教训,或许对我们在中国思考算法规制也会有所助益。

  本文第一部分是对目前三份有关算法与言论判决的分析,将呈现言论自由是如何成为算法规制的前置问题并塑造了之后的讨论。第二部分把“算法是否受言论自由保护”拆分成两个要件,分别从主体角度(算法是发言者吗?)和客体角度(算法是言论吗?)展开分析。第三部分则试图超越上述本质主义的进路,提出从发言者本位还是听众本位思考算法以及强人工智能言论自由问题的可能性。

 

  02

  问题的提出:搜索王案、兰登案和百度案

  搜索王诉谷歌案

  在讨论算法规制时,2003年的搜索王诉谷歌案(Search King v. Google)是一个里程碑。它可被称为算法规制第一案,也是算法与言论自由间的张力第一次引起大规模关注。通过该案,问题被聚焦和提出,未来争论的框架和方向大致确定,阵营划分和站队也基本完成。在一定程度上,搜索王案有些类似冷战时期爆发在“边缘”地区的代理人战争:它虽然只发生在俄克拉荷马州的一家地区法院(而非联邦巡回法院或最高法院),但它背后则是两种力量和两大阵营的集结和较量。双方围绕算法规制展开的第一场较量,是以言论自由开始并以言论自由的胜利而告终的。

  原告搜索王是一家从事搜索和虚拟主机业务的公司,于1997年在俄克拉荷马州注册。在2002年,搜索王新推出了一种名为“PRAN”(PR Ad Network)的分支业务,其商业模式是帮助客户把广告和链接打到那些在谷歌网页排名(Pagerank)中排名靠前的网站上去。

  争议就是围绕谷歌的网页排名展开。何为网页排名?当用户在谷歌检索某个关键词时,搜索结果会按照一定顺序出现在页面左侧,这个依序出现的结果就是网页排名。网页排名是谷歌搜索算法的核心体现。“Page”一语双关,既取自谷歌创始人之一拉里·佩奇(Larry Page)的姓,也取“网页”或“页面”之意。谷歌从1到10对网站打分,得分越高说明网页的质量和相关性更好,在检索结果的呈现中排名也就越靠前。根据我们日常使用搜索引擎的经验,排名靠前的网站会不成比例地获得绝大多数点击和流量。

  搜索王之所以把谷歌告上法庭,原因有二:第一,谷歌降低了搜索王网站的网页排名。从2001年2月至2002年7月,搜索王网站的网页排名一直是7,最高时还曾达到8。但从2002年8月开始,这一数值跌到了4。第二,谷歌彻底删除了搜索王子业务PRAN的网页排名,而在此前,PRAN的网页排名曾经是2。搜索王认为,谷歌是在得知PRAN高度依赖网页排名系统营利后有意为之,而网页排名上的降序和删除给自己的生意带来了“无法估量的损失”。

  谷歌毫不避讳自己确实“有意为之”,但提出三点作为抗辩:一、搜索王和PRAN破坏了网页排名的公正性(integrity);二、谷歌没有任何义务把搜索王纳入网页排名,或将其排在后者想要的位置;三、最重要的是,网页排名代表了谷歌的言论(speech),应受言论自由保护。

  最终的判决结果是,谷歌关于算法是其言论自由的主张得到了支持。与联邦最高法院动辄长篇大论相比,俄克拉荷马地区法院的判决十分简短。特别是在“算法是否属于言论”的问题上,判决简单到近乎论断而非论证。

  法院首先认为谷歌的网页排名是一种意见(opinion)——“网页排名是一种意见,这种意见关乎一个特定网站对某一检索指令响应的意义。”这里隐含着一种类比,即把搜索过程类比为人与人之间的问答。如果有人问我“北京哪里的烤鸭好吃”,我的回答当然是我的意见——因而也是受保护的言论。法院显然认为,搜索算法根据“北京好吃的烤鸭”这一检索指令生成的结果就相当于自然人对“北京哪里的烤鸭好吃”的回答,所以同样应受到保护。在赋予算法言论自由保护的推理中,上述“检索=问答”的类比或想象是最为关键的一步。这样一来,算法的“算”摇身一变为“说”。

  法院还把上述认定推而广之,认为所有搜索引擎根据算法生成的结果都是它们发出的言论——“由于每种搜索引擎确定检索结果意义的方法都不同,其他搜索引擎也都在表达各自不同的意见。”就像每个人都有权表达自己的观点一样,每个搜索引擎都有权根据算法“说”出自己的意见。具体到本案,不管谷歌根据算法怎么调整(甚至删掉)搜索王和PRAN的网页排名,这都等同于谷歌想如何发表自己的意见,包括搜索王在内的任何人当然不能干涉。

  

  美剧《傲骨贤妻》第四季第三季完整地演绎了该案件

  值得注意的是,搜索王案给算法贴上的不仅仅是“言论”的标签,而是“意见”。这意味着,与“言论”相比,被贴上“意见”标签让算法可以享受更多豁免。搜索王一方就一直主张,哪怕算法属于言论,也是虚假和不真实的言论,而不真实的言论同样不应受到保护。但通过把“意见”的身份赋予算法,法院相当于给了算法拥有者一块“免死金牌”。“第一修正案下没有错误的意见。”算法作为一种主观的意见,无所谓对错真假。更进一步,搜索王案法院认为算法是一种具有“公共关切”(public concern)属性的意见。根据先例,“只要没有被确证含有错误事实信息,涉及公共关切的意见就受到宪法充分保护。”换言之,举证责任被转移到了搜索王一边。只要谷歌的算法没有被“确证含有错误事实信息”,它就是受保护的言论。双方第一回合交锋就这样以算法一方的“完胜“而告终。

  兰登诉谷歌案

  搜索王案三年后,2006年的兰登诉谷歌案(Langdon v. Google)再次把算法与言论间的关系推上风口。

  本案的争议同样围绕搜索算法展开。原告克里斯多夫·兰登(Christopher Langdon)拥有两个网站,主要用来发布北卡罗来纳州官场的腐败和黑幕,其中不少消息针对时任北卡总检察长的罗伊·库珀(Roy Cooper)。兰登把谷歌等公司告上法庭,是因为:一、指责谷歌不允许他在自己的网站刊登广告;二、谷歌将它的网站从“Roy Cooper”和“总检察长Roy Cooper”等关键词的检索结果中移除。兰登认为谷歌的行为侵犯了他的利益,但谷歌则辩称由算法决定广告呈现和检索结果是在行使自己的言论自由。

  与搜索王案一样,受理本案特拉华州地区法院支持了谷歌算法是言论自由的主张。法院指出言论自由既包括说的自由,也包括不说的自由。兰登要求谷歌必须呈现自己网站的广告和将自己的网站排在特定位置,就相当于强迫谷歌必须“说”某些内容。与搜索王案判决的正面进路(谷歌可以“说”什么)不同,兰登案法院的论证是从反面进行的——即谷歌不能被强迫“说”什么。借用之前烤鸭的例子,兰登的诉求就相当于我被问到“北京哪里的烤鸭好吃”时,必须说出某家餐厅的名字。但这种类比的前提是:算法对检索指令的回应首先必须等同于人在说话。搜索王案的判决虽然简短,但好歹对这一问题进行了处理;但也许是受搜索王案的影响,兰登案法院直接把这当作给定的前提接受了。

  此外,兰登案还通过对《1996年传播风化法》(Communication Decency Act of 1996,简称CDA)第230条豁免问题的处理,赋予了算法多一重的保护。长期以来,CDA的230条都被视为互联网平台和企业的“护身符”。在规制传统媒体时,法院遵循的是“权利义务对等”原则,即媒体或平台要想享受“发言者”或“出版者”的权利去管理或编辑内容,就必须同时承担义务——对经过自己管理和编辑的内容负责。简言之,编辑行为可以等同于“说话”,但一旦从“编辑者”变成了“发言者”,相关主体就必须对自己的“言论”——即编辑过的内容——承担相应责任。报纸就是这一原则最典型的体现。按照传统法理,谷歌通过算法对内容的选择不是不可以被视为“言论”,但如果谷歌获得了“发言者”这一身份,就必须同时对这些内容负责。

  但CDA的230条却在一定程度上豁免了谷歌等平台的义务和责任。兰登案涉及的是230条(c)(2)(A),该款规定:“无论是否受到宪法保护,交互式计算机服务的提供者和用户采取行动,限制对淫秽、低俗、猥亵、粗鄙、过度暴力、使人不安或其他令人无法接受的材料的接触时,不应承担责任。”通过对这一条款的解读,兰登案法院认为谷歌等平台进行内容管理(“编辑”)时,却无须因编辑行为而承担责任。这使算法拥有了一种超越报纸的地位。如前所述,在传统言论自由和媒体法法理下,与广播、有线电视等媒体相比,报纸一直享有某种优待地位。“攀附”报纸也一直是互联网巨头和算法支持者最主要的策略之一。但报纸的权利义务起码是对等的——报纸因编辑行为而获得“发言者”的身份,其代价就是编辑过的内容就变成了报纸自己的言论,从而必须对其负责。但经过搜索王案和兰登案,算法却只有“发言者”的权利却不用承担“发言者”的义务。

  因此,兰登案的意义体现在两点:首先,它追随搜索王案,再次确认算法是“说话”,享受言论自由保护;其次,通过对230条的解读,它又豁免了谷歌因获得“发言者”身份而本应承担的责任。两者放在一起,网络巨头和算法获得了一种“只有权利没有义务”的特权。这种法律上的优待是前所未有的。

  张(音)诉百度案

  在搜索王案和兰登案后,算法规制与言论自由间的张力又一次爆发是2014年的张(音)诉百度案(Zhang v. Baidu)。

  本案源自几位纽约居民,他们以百度在搜索结果中屏蔽某些内容为由,在纽约南区法院把百度告上法庭。主审法官非常明确地表示,本案直接涉及的先例有且只有两个:它们就是搜索王案和兰登案。不出意外,纽约南区法院再次确认搜索算法是受保护的言论。与之前两份判决相比,张(音)诉百度案最大的价值在于,法院明确采用了将算法“比附”成报纸的进路。

  法院的核心论证体现在下面这段话:“搜索引擎的核心作用就是从因特网海量数据中抽取相关信息,并以对搜索者最有帮助的方式呈现出来。这样做的话,搜索引擎不可避免地要做出编辑判断,包括什么信息(或哪类信息)应被纳入结果,以及如何和在哪里呈现信息(比如,是在结果的首页还是靠后)……在这些方面,搜索引擎的编辑判断和其他我们所熟悉的编辑判断是高度一致的,比如报纸……”由此,法院认为百度对搜索结果的干预是履行正常的编辑职能,是受到保护的言论。

  “编辑”是判决推理的关键词。传统法理下的等式是“报纸编辑=报纸说话”,而现在通过将“算法选择≈报纸编辑”,最终实现了“算法选择≈算法说话”的跨越。正如本文第二部分将要分析的,这可能是算法言论自由主张能找到的最有力的支持。将搜索王案、兰登案和百度案放在一起,不难发现:

  首先,三个案件都始于如何规制算法,但言论自由这个“程咬金”的出现,却改变了整个故事的走向。在此之后,规制算法的首要问题不再是如何规制以及用何种标准规制,而必须先迈过“算法是否属于言论”这道坎。“言论自由测试”变成了规制算法的前置程序。其次,算法的言论自由主张在这一组判决中都取得了压倒性的胜利。算法对搜索结果的选择和呈现,被等同于报纸对内容的编辑。三个不同地区法院在同一问题上如此高度一致、态度坚决,使“言论自由测试”这道门槛变得高到难以逾越。

  

 

  03

  问题的展开:算法受言论自由保护吗

  算法是否受言论自由保护?这其实可以被拆解成两个相互关联的子问题:一是主体要件,讨论算法(或程序、电脑和机器)是否是一个可以主张言论自由的主体。简言之,主体要件主要讨论算法(或程序、电脑和机器)是不是人;二是客体要件,这关乎算法生成的结果是否属于言论(speech),即算法或算法的结果是不是“话”。借用欧文·费斯(Owen Fiss)“街角发言者”(the street corner speaker)这一经典模型,言论自由的主体要件要求站在肥皂箱上的必须是人,而不能是学舌的鹦鹉或一台录音机;客体要件则要求,站在箱子上的人说的必须是“话”,而不能是含混不清或意义不明的声响。对算法是否受言论自由保护的分析,也可以围绕主体和客体两个要件展开。

  Part.1

  言论自由的主体要件:算法是发言者吗?

  1、算法反对者:言论自由是“人”的权利

  对绝大多数人来说,主张算法是言论是反直觉的。从直觉或常识出发,相信很多人认为言论自由是一项属于人的权利,而算法或机器不是人,因此它们不能享受言论自由。这种“主体不适格”的反对看似朴素,但却十分有力。

  在这些讨论中,弗兰肯斯坦是一个被频繁提及的名字。玛丽·雪莱于1818年创作的《弗兰肯斯坦》多被认为是科幻小说的鼻祖。在小说中,弗兰肯斯坦从无到有创造了一个怪物,这个怪物比正常人身强力壮,掌握了人类语言和情感,甚至还喜欢阅读歌德的《少年维特的烦恼》、弥尔顿的《失乐园》和普鲁塔克的《名人传》。整部《弗兰肯斯坦》最大的戏剧冲突其实就在于主体问题——弗兰肯斯坦创造出来的这个“怪物”到底算不算一个“人”?

  哥大法学院教授吴修铭(Tim Wu)一直反对把言论自由赋予算法和电脑。在他看来,算法就是弗兰肯斯坦创造的怪物——“弗兰肯斯坦的怪物可以走路和说话,但它并没有资格去投票”,“程序员拥有编程的第一修正案权利,并不等于它所编的程序因此也被赋予这一宪法权利。”

  吴修铭代表了从主体资格反对算法有言论自由的一方。在他们看来,言论自由只能属于人,主体资格相当于一票否决权。不管弗兰肯斯坦的怪物多么像人,也不论程序员写出的算法多么智能,由于怪物和算法不是人,它们就永远不能主张弗兰肯斯坦和程序员的权利。

  “算法不是人所以不应该言论自由”的直觉也可以得到言论自由理论上的支持。三大言论自由理论——思想市场、自治和自主理论——中至少有两个可以对此提供帮助。

  深受道德哲学影响的自主理论(autonomy theory)对“主体必须是人”的要求最高。或者说,自主理论自身的逻辑就隐含言论自由只能属于人的内在要求。在自主理论看来,言论自由之所以应得到保护,因为它事关人——这一自主主体——的自我实现和自我满足。著名自主理论家埃德文·贝克曾指出,言论自由的主体只能是“鲜活的、由血与肉(flesh-and-blood)构成的人——即康德所说必须被视为目的(ends)的人”。人作为自主主体是自主理论确立言论自由保护正当性的基础。我说故我在,人因为言说才成为人;反之,也只有人才能言说。

  因此,自主理论认为只有人——由“血与肉构成”的自然人——才能享有言论自由。算法和电脑不是自然人,它们的“言论”和“表达”无法促进人的自我实现和满足,从而不受言论自由保护。如果严格遵照自主理论的逻辑,不仅仅是算法和机器,公司和组织的言论(如政治捐款)同样不应受到保护,因为拟制的法人同样不是“血与肉构成”、康德意义上的道德主体。

  自治理论(self-government theory)在一定程度上也坚持言论自由只能属于人。自治理论关注的重点是投票和自我治理,而进行这些活动的主体只能是自然人——或者说——公民。自治理论因此强调言论自由应为民主自治做贡献,比如通过保护公共对话,选民可以获得更多信息和知识,从而可以更加明智地投票。

  吴修铭所说“弗兰肯斯坦的怪物可以走路和说话,但它并没有资格去投票”其实就是从自治理论的角度出发的。更完整的表述或许应是:由于弗兰肯斯坦的怪物没有资格投票,因此尽管它能说话,但它的言论不是言论自由意义上的“言论”。同理,算法或强人工智能哪怕可以发出一般意义上的“言论”,但由于算法和机器不是可以投票的公民,它们的“言论”不是言论自由意义上的“言论”。与自主理论关注的人的自我实现和满足不同,自治理论侧重公民素质的提高。但“人”都是两种理论的关键,两者都认为言论自由有助于实现人这一主体的某种成长和完善,只不过前者关注的是道德维度,后者则是政治维度。

  

  英国国家剧院上演的《弗兰肯斯坦》剧照

  相比之下,思想市场理论(marketplace of ideas theory)在主体资格上并没设置什么障碍。一个可能的原因是:自主理论和自治理论对言论自由的想象都是高度人格化的,两者都想象存在一个明确的主体——作为道德主体的人和作为政治主体的公民。但这种人格化和对主体的想象也没有出现在思想市场理论中。按照霍姆斯的说法,言论自由是保护一个各种观点可以充分竞争的思想市场,而真理将从中产生。

  “观点”和“真理”——而不是“人”——才是思想市场理论的关键词。思想市场理论因此具有“言论不问出处”的倾向——不要求观点或言论必须来自自然人或公民。理论上,如果其他主体——不管是媒体、公司还是算法和机器,只有能够产出观点,思想市场理论认为应该允许它们加入竞争。更进一步,思想市场认为言论自由之所以需要保护,是因为有助于发现真理——而真理是可以脱离主体客观独立存在的。理论上,只要算法和机器能够促进真理的发现,它们的言论(产出)就可以受到保护。形成鲜明对比的是,自主理论的目的是人的自我满足,自治理论的目的是让公民明智地投票,这两种目的都与“人”密不可分。换言之,自主和自治理论的目的离开人就无法实现,而思想市场理论的目的却无需人的存在。

  2、算法支持者:人通过算法进行表达

  从上述分析不难看出,在围绕“主体要件”的争论上,算法并不占优。相比于正面交锋,算法支持者试图跳出算法主体资格和人格化的争论,不再纠缠“算法能否类比成人”,而是选择以退为进、另辟蹊径。

  他们的策略是:不再纠缠算法和机器是不是“人”,而是强调算法只是人的工具。换言之,算法当然不是人,但算法的背后是人,而人需要通过算法和电脑来“说话”。经过这种转化,问题从“算法是否是人”变成了“人通过算法进行的表达是否算言论”?更具体地说,在围绕主体展开的争论中,人、算法和言论的关系如下:人——算法——言论。对这一关系中所包含问题的描述是:人创造了算法,而算法生成的结果是不是属于言论。

  反对算法是言论的一方认为,上述三方关系其实应被拆分为两对独立的关系:“人——算法”和“算法——言论(结果)”,而只有后一组关系才应被拿来讨论。他们会极力淡化“人”的存在,同时突出算法和机器的主动和自主性。这是一个类似《圣经》创世纪的故事,人在创造了算法和程序后就会隐退,剩下具有“自由意志”的算法独立运作。在他们看来,要讨论算法是不是言论,只需要关注“算法——言论(结果)”这一组关系。其中唯一相关的主体是算法和机器,而不是所谓隐藏在背后的人——因为背后根本就没有人。换言之,问题只能是“算法是不是人”或“算法是不是言论自由适格的主体”,而绝不是“人能否通过算法说话”。如吴修铭所说:“程序员拥有编程的第一修正案权利,并不等于它所编的程序因此也被赋予这一宪法权利。”在算法反对者看来,这里就是在讨论“程序有没有言论自由”,而绝非“程序员有没有言论自由”,后一种表述是偷换概念。

  与之形成鲜明对比的是,算法支持者试图把“人——算法——言论”变成“人——言论”。通过“揭开算法的面纱”,算法的背后其实是人。他们的论证在两方面同时下功夫:一是突出算法言论背后“人”的因素,强调算法只是人的工具;二是淡化“算法”的自主性和主动性。算法和电脑被类比成没有任何自主性的纸和笔,它们只是新的、被人类用来表达的工具。算法支持者的论证可由一组递进的类比说明:

  01

  阶段一

  假设张三为了唤起公众对北京空气质量问题的关注并引发更多讨论,选择办一份双周出版的刊物。每期刊物上,张三会从相关讨论中选择十篇质量最高的予以转载。这份出版物无疑属于言论的范畴,这份出版物体现了张三的主观判断、选择和编辑。这就是第一部分提到的“编辑职能”,张三因自己的编辑行为而成为发言者,他编辑的内容也变成了他的言论。

  02

  阶段二

  看到纸媒的衰落,张三决定办一个网站。与之前的双周刊一样,网站同样关注北京空气质量,仍旧是转载和刊登张三认为高质量的文章与讨论。张三网站的内容同样属于言论。如果张三把网站换成微博或微信公众号,亦是如此。虽然张三表达自己言论的工具(从纸笔到软件)和媒介(从纸媒到网络)都发生了改变,但工具和媒介的改变并不改变张三表达和言论的属性。

  03

  阶段三

  为了更有效地挑选出最好的内容,同时也为了减轻自己的负担,张三写了一个程序。程序中的算法可以帮他自动检索、抓取和呈现质量最高和最具热度的讨论。张三网站的主题仍然是北京空气质量,但他已不再是“人工”浏览和选择文章,而是交由算法“自动”完成。网站的主题(北京空气质量)和目的(推荐该领域最优质的内容)不变,唯一的变化是内容的选择和推荐从人工变为算法“自动”完成。

  04

  阶段四

  张三网站的例子被推到极致。假设他关于北京空气质量的网站广受好评,他的算法被证明可以筛选出相关领域最有质量的内容。张三决定把算法推广到更广阔的领域,决定做一个可以在一切问题和领域上筛选出最具相关性和高质量内容的网站。无论用户关心的是当地美食、2018年房价走势分析还是特朗普“通俄门”调查,张三的网站都会根据内容质量和相关性,依次列出相关网站链接。不难发现,张三网站的“终极版”,就是我们熟悉的搜索引擎。

  

 

  阶段一是一个毫无争议属于言论自由的例子——张三创办的印刷刊物。通过一系列递进,算法支持者想表明从阶段一到阶段四,每一步发生的都是“量变”而非“质变”。无论是纸、笔、印刷机还是电脑和算法,它们只不过是张三表达的工具和媒介。如果张三用笔和纸办刊推荐某一领域内高质量的文章属于言论,为什么张三通过算法推荐一切领域内高质量的内容就不是?

  阶段三(即张三把算法加入网站)是一个分水岭。如果认为此阶段张三的网站是言论,似乎没有十分强有力的逻辑障碍阻止人们承认阶段四也是言论。因为如果用算法选择和呈现一个领域或问题的内容如果算言论,似乎没有理由否认用算法去选择和呈现所有领域和问题的内容不是言论。

  但是,承认张三网站的第三阶段是言论,的确需要逻辑和理解上的一个巨大飞跃。绝大多数人都会承认张三的双周刊(“阶段一”)是言论,认为刊登张三“人工”选择内容的网站(“阶段二”)是言论的人也应该不在少数。但从张三把算法加入网站开始(“阶段三”),认同的人会越来越少。虽然纸、笔和算法都可以被看成是工具,但直觉仍告诉大家算法和笔纸甚至和Microsoft Word等文字处理软件有着根本不同。

  算法与笔、纸或Word的不同究竟在哪里?人工和自动的区别是一个可能的答案。很多人之所以能够承认阶段二仍是言论,一个重要原因就是网站上的内容仍然是张三人工和手动选择的。“人工”和“手动”背后是对“人”的想象,即认为“人工”或“手动”体现了人的主观判断。但所谓“人工”和“自动”的对立在很大程度上也是相对的。手动选择文章的确体现了张三的主观判断、口味和立场,但算法何尝不是张三“主观”的产物?正如法院在搜索王案中所说,每一种算法都是主观的。不同程序员写出来的代码肯定不同,不同公司的算法也会呈现不一样的结果。算法挑选内容不是听天由命买彩票或抽签,而是近于张三雇佣了一位助理,并告诉这位助理应按照何种标准去选择内容。按照自己主观的标准去选择和编辑内容就是言论,为什么把自己的主观标准写入算法,然后由算法去选择和编辑内容就一定不是言论?简言之,算法是体现了人主观判断(而不是算法独立判断和智能)的工具,人只是借助算法来“说话”而已。

  但总体而言,在有关言论自由主体资格的讨论中,优势不在算法一边。无论是理论还是常识,都倾向于认为“算法(或机器、电脑)不是人”从而不能享受言论自由保护。算法支持者更是看到了自己在主体资格问题上的劣势,才选择强调“算法只是人表达的工具”。一方面,这相当于默认“只有人才有言论自由”和“算法不是人”;但另一方面,他们也聪明地回避掉了主体问题,并把争论逐渐引向了对客体问题——什么是言论——的讨论。

  Part.2

  言论自由的客体要件:算法是言论吗?

  接下来考察客体要件,即算法或算法生成的结果是否属于“言论”。根据“街角发言者”模型,理论上只有同时符合主体和客体两个要件才能受到言论自由的保护,两者缺一不可,是并列关系。但近年来却出现了这样一种趋势:言论自由的保护重点逐渐从保护发言者(speaker)转向保护言论(speech)。在波士顿第一国民银行诉贝洛蒂案中,最高法院宣称:“无论是来自公司、组织、工会还是个人,言论因可以使公众知情而具有的价值并不依附于言论的来源。”在公民联盟诉联邦选举委员会案中,斯卡利亚进一步阐明了上述立场:“第一修正案写的是‘言论’,而不是“发言者”。第一修正案的文字不支持对任何一类发言者的排除……”

  换言之,伴随着从“发言者”向“言论”的转化,主体和客体要件的并列关系变成了替代关系。客体要件逐渐成为言论自由关注的中心。如果说围绕主体要件的讨论总体上是不利于算法的,客体要件的情况则正好相反。言论自由理论和实践的发展,是站在算法这边的。

  算法是不是言论?回答这一问题,涉及对“什么是言论”这一“元问题”的追问。不仅仅是在算法上,在整个言论自由思考中,本质主义一直是一种重要的进路:法官、学者和法律一直试图通过定义何为“言论本身”(speech as such),来确定言论自由的覆盖和保护范围。

  但这种尝试却并不轻松。一种进路是区分“表达”(expression)和“行为”(conduct),认为前者应受保护而后者不能。但什么又是“表达”或“行为”?这只会陷入新一轮的定义循环。另一种进路则以斯宾塞诉华盛顿案所强调的“观点的交流”为代表。在该案中,最高法院认为“言论”是指“存在传达某一特定信息的意图,而且周围环境中接收到该信息的人也非常有可能理解这一信息”。但正如学者所批评的,斯宾塞案对言论的定义同样存在问题。恐怖分子制造自杀式袭击当然是为了传递特定的信息,周围的人无疑也都能理解这些信息,但这并不能导致自杀式袭击受到言论自由覆盖或保护。另一方面,波洛克的油画、勋伯格的音乐和路易斯·卡莱尔在《爱丽丝漫游仙境》中创造的jabberwocky,却可能因为“难以被信息接受者理解”而被排除在言论外。罗伯特·波斯特曾言,定义言论“不是只要贴上‘观点’或‘言论本身’这一类标签就可以确定的。”换言之,试图通过给“言论”下定义来“一揽子”解决言论自由问题似乎注定难以成功。

  

  波洛克的油画以其复杂性与神秘性而著称

  具体到算法是否属于言论,争议集中在两点:一是认为算法的结果本质上更接近对信息的计算、汇聚和排列,而不是传统意义上的说和表达;二是算法、程序和电脑中机器或“非人”因素是否使其丧失言论属性。

  1、算法与报纸:编辑等于言论

  算法的反对者通常主张,搜索引擎只是一个消极的平台或管道(conduit),而非主动的发言者。算法并不产生任何原创内容,而只是挑选和汇总别人的内容。算法对此的回应则是将自己类比成报纸。如搜索王案、兰登案和百度案三份判决所体现的,算法的言论自由主张之所以得到法院支持,核心就在于法院认可了“算法选择≈报纸编辑=报纸说话≈算法说话”这一推理链条。

  算法支持者最仰仗的先例就是1974年的迈阿密先驱报诉托尼罗案。该案争议源自佛罗里达州关于“回应权”的规定,该规定要求:如果任何一家报纸上出现对某位候选人的攻击,候选人有权要求报纸以相似地版面、篇幅和形式刊登他(她)的回应。最高法院最终全体一致认为,因为侵犯了报纸的编辑职能,佛州“回应权”侵犯了报纸的言论自由。判决最重要的一点是,强调报纸对内容(可能来自记者、读者投稿或约稿等)的选择和呈现就相当于报纸在说话。换言之,托尼罗案是“报纸编辑=报纸说话”或“编辑=言论”的开始。在此之后的司法实践中,“编辑职能”、“编辑裁量”和“编辑判断”等词一旦出现,往往意味着言论自由保护的获得。

  与“编辑=言论”相关,报纸和托尼罗案对算法的另一帮助是对“平台说”的回应。就像反对者主张算法只是平台一样,当年报纸的反对者也极力主张报纸只是汇集和呈现别人言论的平台。但最高法院明确表示:“报纸绝不仅仅是接收新闻、评论和广告的消极的容器或渠道。”报纸因对内容的编辑使自己从消极的平台成为积极的发言者。在1995年的一份判决中,最高法院援引托尼罗案更直截了当地宣告:“第一修正案并不要求每位发言者在每次交流中都产出原创内容……报纸的评论版通常是将他人言论进行编辑性汇总,而这当然落在第一修正案保护的核心。”

  

  无论是从逻辑推理还是现实效果,“比附”报纸编辑都是算法最有力的论据。在搜索引擎看来,算法对第三方内容的抓取、排序和呈现就相当于报纸编辑对稿件的选择和判断。谷歌工程师在一些场合中就曾主张,用户使用谷歌和他们看报纸所追求的目的是一样的,就是冲着两者的“编辑判断”而来。人们看《纽约时报》和《华盛顿邮报》是冲着编辑的眼光、立场和品味;人们在使用谷歌进行搜索时,同样是因为谷歌算法的品质。人们视《纽约时报》刊登的内容为《纽约时报》的言论,因为这里面体现了编辑对报道什么内容、如何报道,哪些放在头版,如何设计配图、板式和字体等一系列问题判断,这里面所包含的心血、劳动和主观因素已经足以使这些内容变成《纽约时报》自己的言论。同样,搜索引擎对算法的设计、编写、优化和运营同样进行了大量的、主观的投入,这同样应该让算法成为“言论”。

  在判例和推理上占不到便宜的反对者,只有从直觉和常识出发。在他们看来,《纽约时报》上的报道或评论虽然可能是第三方所为,但人们仍然会说:你有没有看到今天《纽约时报》上关于某某问题的文章?但至少目前为止,人们不会说:你有没有看到今天谷歌或百度关于某某问题的文章?反对者认为,这种日常对话反映了一种朴素的认识——普通人并不把算法的结果视为他们的言论。但遗憾的是,法理和判例并未站在直觉和常识这边。

  

 

  2、算法与游戏:机器、智能和自动等因素的影响

  算法面临的第二个障碍是:程序和电脑所包含的自动、机器和“非人”成分是否会阻却算法言论属性的获得。还是以张三为例,多数人都认可张三网站的第二阶段——即张三把关于北京空气质量的双周刊搬到网上——属于言论,因为虽然借助了电脑、网络和网页制作软件,但这些工具中自动、机器的成分并没有压倒张三本人判断和行为中“人”的成分。但是,当张三把算法加入网站(阶段三)后,多数人开始对这是否仍算言论打上问号。为什么会有这种不同?与电脑和一般软件相比,算法似乎具有更多自动性和智能性。在不少人看来,这开始压倒张三言论中“人”的成分。如果我们想象存在一个光谱,光谱的一端是最纯粹的机器性另一端是最纯粹的人性。在算法反对者看来,如果说在Word和WPS这里仍旧是人性压倒机器性,算法则已经滑向了机器性的极端。

  作为回应,算法支持者这次拿来“比附”的是电子游戏。在2011年的布朗诉娱乐商人协会案中,最高法院宣布:“在将宪法适用于不断变化的技术时,无论遇到何种挑战,‘言论和新闻自由的基本原则都不应随着新的、不同沟通媒介的出现而改变。’”这意味着,当新的技术或媒介出现时,不论它是电子游戏还是搜索引擎或算法,保护应是常态而不受保护才是例外。

  斯卡利亚接下来写道:“像先于游戏受到保护的书籍、戏剧和电影一样,电子游戏通过很多我们熟悉的工具(比如文字、对话、情节和音乐)和具有独特特征的媒介(比如玩家与虚拟世界的互动)交流观点——以及一些社会信息。这足以赋予电子游戏以第一修正案保护。”可以说,这是一种非常“斯宾塞式”的进路,即认为“交流观点”使电子游戏应受到言论自由保护。

  游戏程序的机器和智能成分使其具有高度的互动性。游戏反对者正是以“互动性”为突破口,强调游戏不同于报纸、书籍和电视从而不应受到保护。但在最高法院看来,“互动性”并非什么新鲜事物。斯卡利亚指出,以1969年出版的《你的冒险:甘蔗岛》(The Adventures of You: Sugarcane Island)为标志,允许读者自行选择阅读顺序和情节走向的童书已经是具有“互动性”的媒介。法庭意见还提到了波斯纳在另一份关于电子游戏判决中的意见,在波斯纳看来,所有文学都是互动的:“越好的文学,互动性越强。文学把读者成功地引入故事,使他们认同角色,邀请他们评判角色并与之争论,体验角色的快乐和痛苦。”

  应该看到,布朗案对算法的支持远不如托尼罗案那么直接有力。但算法支持者之所以如此仰仗布朗案,主要出于两个原因:首先是“举重以明轻”。游戏算法要比搜索算法中“人”的因素更少,而机器性和自动性更强。如果说搜索算法只是对检索指令的回应,游戏则涉及故事走向、人机和玩家间互动、美工设计和音乐等。如果“非人”成分更多的电子游戏都能受到保护,没有理由排除搜索算法。其次则是“举轻以明重”。最高法院认为游戏与文学、戏剧和音乐一样,是传播和交流观点的新的媒介。算法支持者紧紧抓着这点,主张搜索引擎在传播和交流观点上要比电子游戏明显得多。既然电子游戏已经因此获得保护,算法同样应被视为言论。

  算法在客体问题上所占据的优势,很大程度上并不是纯粹理论和逻辑的胜利,而是源自现实。换言之,并非言论自由理论倾向于把算法纳入保护,而是因为实践中已经有大量非传统、非典型的表达或行为被视作“言论”,这种“滑坡效应”使得算法很难被阻挡。言论自由的历史就是一部扩张的历史。言论的内容、形式和边界已被极大地拓展。这首先体现在“言论”的内容不断扩张,在政治言论之外,非政治言论、艺术作品、色情文艺、冒犯性言论、虚假事实陈述和仇恨言论等都被逐渐纳入覆盖甚至保护。其次,“言论”的形式和边界也被不断颠覆。烧征兵卡、烧国旗、烧十字架、政治捐款、对艺术作品的资助和电子游戏也纷纷被“言论自由化”。在这种趋势下,既然已经有这么多不像言论的行为和表达被认定为“言论”,算法也变得不那么“离经叛道”。

  04

  发言者本位、听众本位与强人工智能的言论

  第二部分围绕主体和客体要件展开的讨论,在很大程度上是本质主义。它假定事物存在唯一本质,并且这一本质是可被探求和把握的。然而,在“什么是发言者”和“什么是言论”这样的问题上,真的存在所谓“本质”吗?更进一步,即便这种本质是存在的,本质主义进路有助于我们解决算法是否应受言论自由保护这样的现实问题吗?

  一种实用主义的进路开始出现。借用波斯纳的定义,这种进路通过“成本-收益、权衡(balancing)”在可能的后果中选择比较。不同于本质主义,实用主义的进路不再纠结何为发言者和言论,而是直面真实世界中的成本收益分析和利益衡量。在算法是否应受言论自由这一问题上,一种办法就是在发言者本位(speaker-based)和听众本位(listener-based)间进行选择。

  先看发言者本位。如“街角发言者”所示,传统言论自由想象是发言者本位的。言论自由的首要关切是保护站在肥皂箱上的发言者——而不是站在周围听他演说的听众。“说”——而非“听”——才是关键。“说”则必然涉及“谁在说”——言论自由是一项属于人的权利,站在肥皂箱上的必须是一个有血有肉的人。因此,发言者本位会在主体资格问题上持一种原教旨主义立场——发言者只能是有血有肉的人,也只有人的言论才应受到保护。只要是人的表达,不管多么抽象和非典型(如勋伯格的音乐、波拉克的画甚至糕点师傅做得蛋糕),都更有可能被认定为言论;反之,只要表达不是来自于人,无论其多么清晰和接近“观点的交流”,都容易因主体资格问题而被“一票否决”。

  站在发言者本位,电脑和程序显然不是“血与肉构成”的人,因此算法很难获得保护。借用街角发言者和肥皂箱的比喻,算法就相当于把一台电脑放到了肥皂箱上,哪怕这台电脑可以发声,由于它不是人,因此无法作为言论受到保护。在发言者本位下,算法要想获得保护只有一种途径,即证明它有助于促进自然人的表达。算法支持者主张“算法只是人进行表达的工具”就是遵循这一逻辑。但从严格的发言者本位出发,算法和人之间的这种联系还是太间接和牵强了。再者,正如下面有关强人工智能言论时要分析的,算法所具有的智能性使其有可能与自然人构成某种替代和竞争关系。换言之,保护算法的言论反而有可能伤害发言者的利益。因此,发言者本位倾向于不认可算法享有言论自由。

  但听众本位则倾向于赋予算法言论自由保护。听众本位在一定程度上是伴随着大众媒体时代的到来。在著名的红狮案中,面对广播这一新兴大众媒体,最高法院的意见代表了对听众本位最早的表述:“作为整体的人民(people as a whole)享有无线电广播上言论自由的利益……最重要的是,言论自由是观众和听众——而不是广播者——的权利。”简单来说,在大众媒体的时代,听众——而非发言者——可能才是普通公民更真实的身份。“受众”、“注意力稀缺”、“注意力经济”和“接近权”等概念的出现也佐证了上述趋势:相对被动的听众、观众和读者才是大众在现实中的角色。站在听众的立场上,听众本位更关注公民能否接收到更多的言论或获取更多信息,而不是言论从哪里发出。

  听众本位“言论不问出处”使它不再执着于发言者的主体资格,而是聚焦言论内容的质量。照此逻辑,一些人的言论虽然在语言学意义上毫无争议地属于“言论”,但如果这些言论对其他听众没有价值和意义,那么就不值得受到保护。如米克尔约翰所言:“不是所有的话都被说出,而是所有值得被说的话都说了出来。”另一方面,一些表达和内容如果对听众有意义,那么无论其来自哪里,都理应受到保护。将听众本位推到极致,如果一只猴子或鹦鹉说出的“话”对人类是有价值的(而不是简单学舌),猴子和鹦鹉的“话”同样可以受到保护。于是,听众本位为保护算法(以及其他任何非人主体)的言论打开了一道门——只要这些非人主体(不管是算法、鹦鹉、强人工智能还是外星人)的言论能够被证明是有益于人类听众的,那么它们就应当受到保护。

  作为算法言论自由问题的延伸,“发言者本位vs.听众本位”对思考强人工智能(Strong AI)的言论是否应受保护同样可以提供借鉴。强人工智能即通用型人工智能(Artificial General Intelligence,简称AGI),它是相对于“专用型人工智能”(Applied AI)等形式的弱人工智能而言,即可以胜任人类所有工作的人工智能。《终结者》和《机器姬》(Ex Machina)等科幻作品中智能和体力都不逊于甚至优于人类的“机器人”可以算作强人工智能的一种。引发埃隆·马斯克、霍金和Open AI等组织担忧的、可能取代人类的,也是强人工智能。

  强人工智能言论自由争议仍旧围绕着“人”与“非人”展开。与算法相比,强人工智能在“人”与“非人”间可能更具张力。从“人”的方面看,强人工智能无论从智能还是外形可能都更接近(甚至超过)人。对绝大多数人来说,认为谷歌和百度的算法等同于说话是反直觉和反经验的。但当强人工智能到来那一天,一个无论外形、语言和声音都与人类一模一样的“机器人”与你交谈,直觉和经验可能都会告诉你这是一个“人”在“说话”。

  但如果考察“非人”的一面,强人工智能背后仍旧是算法、数据、机器和电脑。换言之,强人工智能仍然不是人。而且与相对“简陋”和“半自动”的搜索引擎算法相比,强人工智能更加智能和“像人”的背后其实是更多的自动性和自主性,这反而意味着更多“非人”因素。

  强人工智能的言论是否应受到言论自由保护?我们当然可以仍旧采取本质主义的进路,从主体与客体两方面去探讨强人工智能是否满足言论自由的要件。但就像通过本质主义解决算法的言论自由问题一样,这种进路难免会再一次走入“无底洞”。从客体的角度来看,强人工智能的言论无论从内容还是形式上,都会与人类最标准和典型的言论难以区分。甚至无需强人工智能的到来,今天苹果的Siri、亚马逊的Alexa、百度的度秘、微软小冰和谷歌的Allo都已无限接近这点。这些表达无疑要比算法、政治捐款以及很多象征性行为更像“言论”。但从主体要件来看,又会形成新的分裂。一方面,假设强人工智能通过了图灵测试,那么这些从外观、思维和情感都与人类无异的主体,为什么不能被看成是“人”?但另一方面,如果坚持只有“血与肉”构成的主体才是“人”,那么无论强人工智能多么像人,不是人就永远不是人。而这种追问又会陷入“什么是人”和“什么是言论”的新一轮循环。

  电影《她》不仅赋予了强人工智能以言论,更讨论了人工智能与人类的感情联结

  

  但“发言者本位vs.听众本位”的实用主义进路至少有助于跳出上述循环。如果选择发言者本位,言论自由就是保护有血有肉的自然人的表达,无论强人工智能多么“能说会道”,由于它无法直接服务于自然人表达的利益(甚至还可能形成竞争和替代),因此它们的言论不应受到保护。但如果站在听众本位,有价值的信息和言论对听众越多越好。因此,强人工智能的言论只要能够被证明对人类是有意义和价值的,就应该受到言论自由保护。照此逻辑,甚至强人工智能间的对话,只要这些内容对人类听众是有价值的,同样应该受到保护。

  05

  余论

  本文讨论了算法规制的一个前置问题——算法是否受言论自由保护。以主体要件(什么是发言者)和客体要件(什么是言论)为线索和框架,文章分析梳理了支持和反对方的立场和逻辑,并探讨了用“发言者本位还是听众本位”的实用主义进路超越现有本质主义进路的可能。本文无意否认或轻视本质主义讨论在智识上的贡献,只是想强调在面对新技术产生的法律问题时,除了概念阐释和逻辑推理,有时也需要直面现实中利益衡量并做出选择。如霍姆斯所说:“这样的事情真的像战场一样,那里没有能一劳永逸地做出决断的办法。”最后,说到超越和选择,如果说在美国“言论自由作为算法规制的前置问题”已是木已成舟;那么在别的地方,理论和实践上是否还有必要遵循这种“路径依赖”和“议程设定”,这同样是一个值得我们思考的问题。

永远跟党走
  • 如果你觉得本站很棒,可以通过扫码支付打赏哦!

    • 微信收款码
    • 支付宝收款码