APP下载

算法时代传播主体性的虚置与复归

2021-01-08王敏芝

关键词:机器主体人类

王敏芝

(陕西师范大学 新闻与传播学院,陕西 西安 710119)

随着媒介技术不断演进,人们开始频繁以这个时代的主导技术为其命名,如“网络时代”“数字媒介时代”或者我们当下特别聚焦的“算法时代”。这种命名方式既是社会媒介化的主要表征,更是人们对媒介技术深刻作用于自身生活的自觉或不自觉承认。

普遍可感的事实是,算法技术为人们建构了一种不断被数据化和计算化的生存环境,智能算法以及技术平台同时利用其技术优势对人形成某种支配和控制,机器的运行逻辑正在全面地嵌入社会生活并将人置于新型人机关系之中。算法一方面为社会生活提供了巨大的便捷,也在某种程度上突破了人的能力局限;另一方面,算法在互联网和大数据等技术基础上所生成的自动化决策的强悍功能,彻底打破了既往人类主体与人所创造的技术体系之间的平衡关系。

一、算法传播中的人机关系

媒介传播进入智能传播时代,算法已成为传播的灵魂。尽管很难量化算法到底在多大程度上影响和改变了我们的生活,但人们习以为常的操作中总在显示它的无所不能:新闻机构利用算法为人们过滤信息,购物网站利用算法为人们推荐商品,点评网站利用算法帮人们选择餐厅,外卖平台利用算法提供最快送达,GPS系统利用算法为驾驶者规划出行路线……如何理解算法,某种意义上决定着我们对算法技术持有的态度和由此展开的讨论聚焦点,目前学术界对算法的理解主要从技术、社会和观念三个层面展开。

首先是作为技术能力的算法。从技术能力的角度解释,是对算法最基础性的理解。“算法”(algorithm)一词得名自波斯数学家花拉子密,“公元9世纪,这位数学家写过一本书,讨论用纸笔解决数学问题的技巧。[书名为‘al-Jabr wa’l-Muqabala’,其中的‘al-jabr’就是后来‘algebra’(代数)这个词的前身]”。[1]V但研究者们也承认,如果从“算法”一词包含的处理问题的特定方式而言,算法逻辑的生成历史可以追溯至非常久远且不仅仅限于数学领域,从烤面包到织毛衣,所有应用行为的步骤、图样和过程都可以看作一个算法,所以,“从石器时代开始,算法就已经是人类生活的一部分了”[1]VI。

我们目前关注的现代智能算法,是科学家们使用计算机技术建立起来的一套计算方法或计算规制。算法的载体是计算机程序,是一系列完整的从输入到输出的计算步骤,通过这些步骤将数据转换为可预期的结果,因此,“算法就是一系列指令,告诉计算机该做什么”[2]3。同时,算法指向解决问题或者说算法的程序设计以解决问题为导向:算法要通过一系列计算、过滤、排序和推荐等方式,得出某种目的下最优化的选择和结果,这意味着针对问题形成决策。华盛顿大学机器学习领域的资深科学家多明戈斯甚至提出一种“终极算法”的思路,即融合神经科学、进化论、物理学、统计学和计算机科学的技术论证,形成一种终极强大的算法用以解决人类所有应用问题。因此,从技术能力层面理解算法,是对算法工具理性的明确。

第二层面是将算法理解为社会参与。当算法以解决人的现实问题为目的时,算法便由技术层面走向社会层面。从迅速找到停车位到找到合适自己的伴侣、从路线规划到时间规划、从偏好分析到个性塑造,等等,算法在形成认知和影响行为方面发挥着巨大作用。因此,决定算法的意义就不是技术或技术的物质基础,而是这种技术进行社会参与的方式与程度,即理解算法的重点在于理解算法如何作用于个人行为、机构运转和社会秩序,如何与商业、市场和社会治理发生联系。

“互联网、大数据、算法与人工智能的发展日新月异,它们不约而同地向我们做出了同样的承诺:科技正在改善我们的生活。”[3]I人们日常可感的技术便利往往来自市场和交易,来自互联网“算法经济”带来“诸多线下市场难以比拟的优越性”和“显而易见的经济效益”。[3]6-12各种如“百度”“美团”“饿了么”“今日头条”等超级平台和互联网服务商在逐利与竞争中不断优化产品并提高服务质量,对所有用户产生巨大的虹吸效应甚至形成商业垄断。算法控制之下的商业现象体现了繁荣,也实现了财富与权力的重新分配。当然不仅是在商业领域,算法已经嵌入各种社会机构运行之中,新闻传播、健康服务、社会治理与政治参与无所不包,其渗透性和社会功用早已超过大数据统计时期的技术目标。

第三层面是从观念和文化的角度理解算法。当算法已经对社会生活构成全面影响的时候,它就应当被上升到观念层面予以探究。“计算机科学家可能关心的是效率问题,或者算法如何与数据结构相互作用;人类学家可能关心的是算法如何实现价值观和文化意义。”[4]斯拉伯斯认为,作为定性人类经验重要标准的“文化”如今已被计算机数据纳入并进行处理,尽管算法作为技术的一面往往更容易受人关注,但“算法文化的语义维度至少和技术维度一样重要”[5]。因此,算法不仅仅是技术和实践,更包含价值观和认识论。

之所以认为算法是一种价值观和认识论,是因为现代智能算法已经成功地将自身逻辑推演至人,更由此将人置于一种新的关系——人机关系之中。

芒福德在他的《技术与文明》中提出“机器体系”的概念并认为“机器体系”——指整个技术综合体或技术体系而非具体的机器——拥有自身的独立性和文化价值,即对生活常规、社会秩序与审美经验都具备“同化”作用,“由于机器能够使用某种非人力的能量,而且即使是在比较原始的阶段也显示出某种程度的自动化趋势,使得机器就仿佛成为能够独立于使用者而存在的实体”[6]281。尽管芒福德因为身处年代的原因无法讨论计算机与互联网这种技术体系的最新演进,但他对技术体系独立性与文化意义的解释在当下仍然有效:“机器体系所完成的最深远意义的征服并不在某台设备本身。因为一种设备总是会很快过时;也不在于它生产的产品——因为产品总是很快被消费掉了。最具有深远意义的影响在于通过机器体系所创造的、机器体系本身所体现的全新的生活方式。”[6]283

因此,从人与机器的关系出发讨论算法,关键就在于理解现代智能算法如何将自身逻辑作用于人,并在此过程中逐渐呈现机器的主体性或类主体性。

智能算法实现的条件之一是机器的深度学习能力,且这种学习能力具备越来越高的自主性。具体而言,就是计算机程序可以对现实生活中极其大量而分散的数据信息进行自主处理并形成决策,注意,这是来自机器而不是来自人的决策。以“今日头条”的新闻推送算法为例,平台会在接触到新闻信息的第一时间对该信息进行“计算”,包括关键词、兴趣标签、时效性、热度值以及信息来源类型和权威度衡量,并根据计算结果将该信息储备于信息预备库中准备推荐给与此计算特征相匹配的用户。当然,计算不仅发生在信息层面,还发生在人(用户)的层面:用户的“历史行为数据”是算法主要的处理对象,即通过历史已知的和持续新获的行为数据分析判断出该用户的个人特征、计算用户之间的社会关系,以此为基础进行信息产品匹配和推荐。目前,新闻推荐算法已经从早期通用的基于流行度、内容和协同过滤的初级阶段发展到基于机器深度学习推荐的更加智能化阶段,算法可以理解更为复杂的用户需求、隐匿偏好、情感特征甚至特定的社会语境和兴趣迁移,将大量分散疏离的数据重新聚集分析并形成高效的处置结果。算法用“看不见的手”控制了人们的信息环境,“颠覆了传统的传播模式,也催生了新的文化生产模式”[7]411。

从这个层面上讲,算法一方面在服务人,另一方面却在控制人;持续的数据“喂养”也将算法“训练”得更加“懂你”甚至比你自己还懂你:“每次你和计算机相互作用时——无论是你的智能手机,还是几千英里以外的服务器——你都会从两个层面上这样做。第一个层面是,当场就得到你想要的东西,如问题的答案、你想买的产品、一张新的信用卡。第二个层面,从长远来看也是最重要的一个,就是教会计算机关于你的东西。你教会它越多的东西,他就越能更好地为你服务(或者操纵你)。”[2]338在多明戈斯看来,“服务”和“操纵”是同时进行的,过程中体现的是技术逐渐显现的能动性和意志。因此,算法之所以让人心生隐忧的根本原因就在于,人们已经意识到智能算法正成功而不动声色地对人形成支配,“人可能因此被数据与算法捆绑,跟在机器背后亦步亦趋”[8],而机器的意志体现必然对人的主体性构成威胁。

无论是古希腊时期普罗太戈拉提出的“人是万物的尺度”的判定,还是苏格拉底“认识你自己”的命题,都在强调人类自我意识和自身价值。笛卡尔提出的主客体二元划分将人看作具有自我意识的主体,而“我思故我在”则强调人的思维能力才是使人成为“主体”的关键因素。马克思认为,主体价值体现为“人的内在尺度”,“尺度”具有规定性意义并构成了对客观世界的衡量和判定,因此既包括人的需要也包括人的能力。[9]77-79

但如今,算法正在体现并逐渐强化它的“尺度”与“规定性”意义。算法的规定性,首先体现在对人的数据化强迫之中。算法的计算逻辑要求每个进入该技术体系和期待获得服务的个体自觉成为算法定义的对象,同时,算法并不是从主体角度而是从可数据化、可被计算、被预测和被控制的客体角度定义个人。[10]141算法将人作为“计算组件”以增强自身的权威并获得人的信任:相信机器比人的判断更加精准可靠,也因此,“计算机会慢慢地把人类做判断的权利给剥夺掉”[11]。其次,个人数据不断“喂养”算法,算法权力不断增大。桑斯坦一再强调“聚合信息的努力可能会把人们带向极端主义、安于现状和错误”[12]59。算法还能重构认知环境、定义个人行为,这都是算法的权力。再次,智能算法从语言和思维两个方面迫近人类,造成技术与人的双重异化。语言与思维作为人类主体性的关键要素为人类所独有,但人工智能算法却有可能打破这种独有性。语言是人类思维能力的符号表征,具有构造世界的定义功能,当人工智能具备了等价于人类语言的任何一种语言能力时就意味着机器具有了思想的能力并能构造世界,“具备了这类语言能力的人工智能在地位上也就会迫近人类,动摇人类的主体性地位”[13]。

算法越来越走向智能自主,“当它们感知环境并产生反应,当它们变得可以自组装、自构成、自修复并且能够‘认知’的时候,它们越来越像生物了,技术越复杂、越‘高技术’就越具有生物性”[14]232。正是因为技术在不断智能化发展的过程中呈现出“主体性”特征,使人类不得不面对一种由其建构的新型关系即人机关系,因此,在除了人与物、人与人的关系之外,人与机器(技术)的关系便成为我们思考人以及人的所有社会实践的新坐标。

二、传播主体性虚置的多重表征

机器学习能力的不断提升使算法载体日渐具备主体或类主体的地位,颠覆了既往信息传播的理论与实践,构建了新型人机关系并在实践中为人们抛出了极具威胁的挑战,那就是,伴随“机器体生命化”[15]5过程,人作为传播中传播主体与接受主体的主体性地位不断遭遇虚置。

(一)“降维”的主体

在算法传播的人机关系中,机器学习是构建人-机权力结构的关键,而从机器进行数据分析的基本方法来看,“降维算法”是极为重要的数据处理方法,即将数据由高维减到低维,以此揭示数据的本质低维结构。之所以需要降维,是因为数据原始的高维空间包含大量冗余信息以及噪音信息,会影响到数据分析和处理的准确率。[16]一方面,从人类的认知规律来看,降维算法的目的是要找出复杂数据中的“元结构”并以此实现机器的学习;另一方面,回到信息传播的传受关系框架下来思考“降维”,我们完全可以把它看作一种隐喻——算法传播所谓的用户画像和精准推荐,其根本出发点就是对信息接受主体进行“元处理”,只有被“元处理”(简化)后的“人”才能被机器所“理解”。比如,当某用户花了一小段时间浏览明星写真之后,基于算法的传播推送机制就有可能反复向他定向发送此类信息,而随后他的每一次点击与浏览又都在加深机器对他的“理解”或“误解”:机器可能永远不知道,它认定的这位“好色”的用户只是在某一个无聊的午后和某种随意的契机之下打开了那些图而已。

对信息接受主体的“降维”意味着机器将人简单化,而作为主体的人对自身日趋简化和钝化的认知处境却浑然不觉。表面上看,互联网消弭了实体空间与虚拟空间的边界并创造出新的生产空间,人类的实践空间得以无比拓展;但人们却忽视了,这样的空间其实和自己的主体选择已相去甚远,机器不断地复制当初的“元选择”并反复粘附新的数据,接受—反馈—再接受—再反馈……一个无意的输入行为,亦完全可能形成一个封闭的画像建模。由此,桑斯坦形容的“信息茧房”效应[12]7有可能成为人类在算法时代的最大困扰,而帕里泽提出的“过滤泡”[17]9无疑是算法传播时代对“信息茧房”的新释读。算法对人降维简化处理而导致的认知“窄化”甚至“愚化”成为人的主体性价值实现首先面临的困境。

(二)极化的主体

现代社会的极化现象在不同领域内都有显现,桑斯坦认为,网络空间之所以容易发生极化现象,关键就在于网络群体持续暴露于单一立场和信息之下,而缺乏多元意见和声音的介入。[18]50-51英国的脱欧公决和特朗普当选美国总统,往往被认为是西方国家政治极化的典型案例。两个标榜西方民主的大国,其政治行动与政治话语被民粹主义和民族主义绑架,固然有其政治制度设计内生的难以克服的弊病,但从传播学视域观察,有两个因素不可忽视:其一,社交媒体的广泛使用对主流媒体形成了舆论引导的反制;其二,算法传播的深度介入对接受主体提供了情绪偏向的导引。正是在算法程序中植入了激进主义、种族主义、民粹主义等极化元素,西方国家的网络极化现象愈演愈烈。从这个意义上讲,“后真相时代”极化政治、情绪蛊惑等目标的实现,既有社交媒体传播渠道更新的原因,更有来自算法传播的“算计”。

如果说政治极化是政治目标规制之下算法传播对于权力的服从,其中包含着强大的权力规训力量,那么算法时代极化的网络社群行为和话语则更为真实地体现了接受主体的自我极化。例如,作为网络亚文化的饭圈近年屡屡引发热议,2020年的“肖战事件”尤为典型:明星肖战饭圈粉丝集体出动举报同人圈,最终引发同人圈的反击从而导致公共管理危机甚至对公共监管形成了某种意义上的“绑架”。饭圈何以拥有如此强大的破坏力?很重要的一个原因就是基于共同偶像信息的日复一日的单一传输所形成的类似“非我族类,其心必异”的情绪固化和文化区隔,以及由此形成认知、情绪与行动层面的单一和极端。这些饭圈成员的网络参与行为在人机关系中被拟像为“死忠粉”,其极化表达一方面由于情感寄托,另一方面也和算法主导的传播机制密切相关,因为算法已经成为内容分发的核心技术。

当然,算法并不必然导致极化,但其传播机制最核心的两大支撑即“基于数据价值挖掘的用户画像(用户洞察)和内容的评级分发”[19],则极有可能建构起完全不同于大众传播时代的拟态环境,其诱导力、制约性更为强大。英国学者布鲁斯·胡德在谈到网络极化现象时指出,那种“认为我们能和网络上的每一个人产生联系并拓宽视野的观点是错误的”,因为软件展示给我们的是去除了冗余信息之后的结果,是“它认为我们想看到的”。[20]247-248算法传播制造的信息“孤岛”使信息接收者更易走向偏执,由此引发的“聚类效应”将人们和那些持不同想法的群体隔离开来,也更倾向于促进极化主体的形成。

(三)透明的主体

就数字时代人类社会的深刻更动,韩炳哲曾提出“透明社会”这一概念,在他看来,透明社会犹如“一座同质化的监狱”,而透明是一种“系统性的强制行为”,正是“这一系统性强制行为使透明社会成为一个一体化的社会”。[21]2-3算法传播时代人机互动关系建构,无疑强烈地体现出了作为系统性强制行为的“透明”机制。算法的建模以获得个人最多原始数据为基础,更隐含执行着一种观念:只有彻底地交出个人信息,才能获得最好的生活服务和社会交往。

算法以及包括算法在内的现代“机器体系”与传统工业革命时期的截然不同,传统工业革命中的机器仅作为一种技术物化之后的“物”存在,而算法传播时代的机器不仅具备超强的学习能力,它还可以对人进行主动提问与主动索取;人们向其提供和回馈的信息越多,它就越能和人建立亲密互动。个人无论是因为利益考虑而自愿让渡还是因为算法规定而不得不交付出去的个人信息,使“隐私”存在的可隐性基础不复存在了,算法在事实上已经把人类的生存场景置于波斯特所称的“超级全景监狱”[22]127之下,人和环境都是透明的。

透明主体的出现,无疑是以主体隐私的弃守为代价的。但需要追问的是,为何在算法传播时代人对自身的“透明化”如此心甘情愿?除了法律等制度设计对于大数据时代的隐私权利尚难做出及时救济的原因之外,更重要也更为本质的原因在于,在算法主导的传播架构下,个人想要实现正常的“数字化生存”就必须接受算法的数据规定乃至数据霸权这一前提条件。同时,算法的效率最大化逻辑也促使人们自愿透明化,“在非常容易快速获取信息的地方,社会体系就会从信任切换到监控和透明。这是遵从效率逻辑的结果”[23]101-102。数字时代算法满足的不仅仅是信息需求,更是在提供基本的生活保障,可以说,算法就是数字时代的日常生活逻辑。就像一位“优步”前雇员所宣称的:“利用一个被称作‘上帝视角’的公司内部程序,优步员工可以轻易地追踪到曾级使用过约车服务的用户所在位置。”[3]97那么,有了这个“上帝视角”,还有什么是“它”看不见的?

(四)偏见的主体

学者们越来越意识到,不能把算法仅仅视为一个数学问题、视为价值中立,算法存在隐含的价值判断与偏向,而且由于它对于数据的“执迷不悟”,隐含其中的偏见还有可能被归纳和放大。[24]算法本质上是在模拟人类的决策过程,其偏见与生俱来的原因是人类自身无法避免偏见,“算法偏见是社会偏见在人工智能时代的产物”[25]。美国皮尤研究中心于2018年进行的调查显示,58%的美国成年人认为机器算法与人类偏见之间有着深度关联。[26]

算法传播中的偏见,除了机器向人类学习这一深层机制本身的偏见之外,在数据采集、推送选择、关系建构等算法构架层面也存在隐藏的偏见基因。数据是算法“启动”的质料,选择何种类型、何等规模的数据进入算法直接决定了算法会得出什么决策,而选择本身就天然地包括标准、立场和偏见。比如,美国的一些州会对提出刑事假释请求的犯人使用一种名为COMPAS的算法进行假释风险评估,但学者对这一算法深入探究后却发现该算法存在明显的对非裔美国人的偏见,这种偏见结果和它的数据采集有着极大关系。[27]52-53算法形成的用户画像被认为是精准传播的关键,但在偏见的影响下,机器的画像从一开始就有可能是失准的。也有研究认为,正是算法分析与行为经济学的结合,新兴的价格歧视即“(客户)行为歧视(behavioral discrimination)”才得以出现,算法广泛收集了客户的个人信息包括其情绪(即偏见)并基于此实行价格歧视,用“偏见唤醒了需求”。[3]134-140可以说,算法动机本身就需要一种先在的“偏见”来进行算法建模,“原始数据、算法编程与人机互动继承并强化人类社会的原始偏见,最终导致社会偏见经过算法程序无限循环”[28]。

“一切数据都是人为的产物”[29],被算法驯服的接受主体的认知偏见就愈发自然而然,这既是算法将人类自身偏见带入算法的结果,同时也是算法“输入即输出”式程序设计的逻辑使然。算法制造了万物皆媒时代的新刻板印象,也制造了循环呈现的偏见主体。

三、主体性复归的认知向度与实践路径

在宽泛的麦克卢汉主义视野下,科技就是人类心智的延伸。[30]54算法传播的原始动力来自为了帮助人类在浩如烟海的信息中获得经过分析过滤后的精准与个性化信息的良好愿望,但由算法逻辑导致的对人的信息劫持和对信息主体的控制,以及智能算法凸显出的技术主体性,其后果令人忧切。值得严肃思考的是,算法对于人类传播场景的全面重建,对于人类所有信息行为的监视,甚至对于人的心理的揣度及操控等,绝大多数是在抹去人的主体能动的情形下实现的,这个“超级全景监狱”充满了由算法符号、代码、语言来实施的“符号暴力”[31]205。如何应对算法传播中的“技术主体性”突起、反制算法传播的控制与暴力,如何抵抗算法时代人的主体性渐趋虚置,需要我们从认知与实践两个层面寻找路径。

(一)主体性复归的认知向度

自工业革命以来,人与人所创造的技术物之间的关系从来都是人类主体性彰显与反思的重要坐标,一重维度指向人的自由与发展,另一重维度则指向人的异化。哲学家沙夫认为,马克思的异化理论是从“异化”和“自我异化”两个层面展开的,“异化指的是人与其生产活动的产物的关系。自我异化指的是人对他人、社会及他自身的态度”[32]73。基于马克思对于异化的经典阐释,我们认为,在算法时代实现人的主体性复归有两个认知上的关键点不可回避:一是人对作为技术物的算法的审视;二是在算法社会中人的自我审视。

作为技术的算法仍然是一种社会建构,算法并非绝对中立,它复合了人类社会自身的缺陷诸如不平等、不公正、暴力、霸权、歧视、偏见等内容,可以说,以大数据、云计算、智能化面目出现的算法在本质上也是人类历史、社会、政治和文化的某种镜像。因此,对算法进行社会学意义上的批判就显得尤其重要,更需要用审慎的态度确认包括算法在内的技术使用应以对人类社会的良善与福祉为目的,如巴恩斯所指出的,“科学应该完全像任何其它知识或文化形式那样,受到社会学的考察。”[33]10

当某一技术成为一种普遍性的标准时,其成因不仅是科学意义上的标准,更意味着技术(或文化)中心主义的形成,这种技术中心主义同时对其他技术体系构成了排斥。法国技术哲学家斯蒂格勒认为,人类的所有行为都是具备技术性的或者干脆说“人类的行为即是技术”,但对技术片面、狭隘且不充分的理解造就了技术的特殊性。[34]104其观点提示我们:技术的应用具有开放性,但技术的阐释却具有封闭性,与特定空间或群体的人的社会观念有极大关系。在享受算法便利的同时,我们要对技术背后的政治、经济和文化霸权有清醒的认知,要看到被算法隐匿、漠视与遗忘的人群,进而明确在算法宰治传播的时代中,人本应拥有多样性的信息和文化的自决权。

在批判与审视算法技术的同时,我们同样需要在技术强大赋能之后对人类主体不断进行自我审视,需要认识到“我们存在于我们不能完全控制的因果力和意义的世界之中”[35]3,认识到人的能力的有限性。一个越来越明显的技术趋势是“人们将生物逻辑输入机器的同时,把技术逻辑带入了生命之中”[15]5,我们必须承认:人类创造的技术物创生了某种类似有机的“自然”,算法时代的“数”作为特殊的“物”组建了一个基于“新生物”的“生态圈”,这种“生态圈”重置了人与世界的关系。

对于现代人而言,科学、技术、社会三位一体地建构了我们的生活世界,尤其需要建立一种能够平衡技术与自然生态、社会生态以及人的精神生态的动态机制,即西蒙栋所指出的,人类自身知识和价值需要充分地纳入技术并使之成为其中的重要部分,“让文化成为一种旨在避免人类遭受技术侵袭的防卫体系”[36]11。

就像计算机的编程语言一样,人类语言本身即是一种技术。[37]63基于计算机语言演进的算法带来的对于人类生活的影响,在根本上依然可以视为人类语言的自我拓展。人终究是语言的存在物,语言观即存在观,语用关系就是人与世界的关系。从语言哲学的视角来观察,算法传播中的人机关系即是互联网时代的人类面对的新型语用关系,人的主体性困境就是新型语用关系失衡的表征。由此,实现主体复归极为重要的就是对算法语言的“祛魅”,从而实现作为语言存在物的人的主体“复魅”。人类生存的世界是一个多元而丰富的语言世界,到底是选择走向一个更为丰饶的由人类的语用世界构筑的精神殿堂,还是走向一个算法语言控制的数据矩阵,人类共同体当有自觉的审度。人类文明的过往告诉我们,人类生存本质上不应属于任何的符码世界。作为技术存在的人类语言与所有人类创造的技术物之间形成了天然的张力关系且持久存在[30]384,在人机关系中维持这样的张力平衡是人类持久不衰的自我救赎。就像计算机科学家多明戈斯所警告的:“如果我们愚蠢到故意对计算机进行编程,让其凌驾于我们之上,那么我们就该被统治。”[2]362

(二)主体性复归的实践路径

算法传播时代人的主体性复归路径的另一维度自然要从实践中探寻。在新的人机关系中维护和彰显人的主体性价值、让算法在社会生活中承担它必须承担的社会责任、在制度层面有效控制算法权力以避免不可承受之失控,这都是算法传播实践中已迫在眉睫的难题。算法和技术平台生成了强大的控制性,“掌握了数据,就意味着掌握了资本和财富;掌握了算法,就意味着掌握了话语权和规制权”[38]。面对算法的伦理挑战和人的主体性困境,人文立场与责任共治应是其中要义。

我们不能回避人机关系中出现的技术伦理问题,而且这个问题在实践层面引发的困惑与危机更加具体和紧迫。在智能技术出现之前,人们还并不必须思考技术行为的恰当性问题,因为技术完全受控于人;但当技术越趋于自动化、智能化的时候,技术就拥有一部分主体性,“机器开始拥有了人的一部分能力,即控物的能力、工具理性的能力,这也是人赖以战胜其他动物的能力。[39]因此,算法传播时代对算法行为进行伦理反思的内生动力就来自对“技术主体”潜在威胁的意识。

算法最核心的技术优势是自动化决策,也正是因其能够进行自动化决策而具备“类主体性”。全球研究者们也尝试从法律主体制度的思路出发解决对包括算法在内的人工智能所牵涉的相关权利、义务与责任问题。欧盟于2017年2月表决通过《欧盟机器人民事责任法律规则》,其中提出了一个重要的新概念——“非人类的代理人”,此概念从实质上将人工智能体界定为民事主体。[40]同年我国发布的《新一代人工智能发展规划》中也提出,要在2025年“初步建立人工智能法律法规、伦理规范和政策体系”以“明确人工智能法律主体以及相关权利、义务和责任”。[41]具体而言,这种路径的主要目的是通过为算法载体即人工智能体赋予法律意义上民事主体资格的方式解决权利归属和责任承担等问题,包括明确算法载体的行为边界与权利划分、明确其社会责任与应尽义务。当然,这种基于现代法律权利/义务基本思路之下的规制路径也存在逻辑上的内在矛盾,比如,如果将算法载体当作民事主体看待并由此规定其权利与义务,也就意味在人之外创设了一个新的“目的性存在”,而此前只有人才是法律制度中唯一的和不证自明的“目的性存在”。尽管从这个意义上讲,为技术载体赋予目的性存在的意义被认为有损于人作为自然生命的神圣性,但我们仍需意识到,在当前全球针对算法载体的制度性规约设计障碍重重的情况下,这一做法不失为人们为保障自身主体性价值处于受保护地位的权宜之举。

另一方面,算法运行生成了巨大的算法权力,算法权力又在现实中最终受控于技术平台,规制算法权力和平台控制就是保障人的主体性价值不受剥夺的具体手段。

算法具有技术性和资本性。算法的技术性和资本性决定了拥有普通一般知识的个体无法直接对抗算法,也与算法研发和算法使用机构存在巨大的资本鸿沟,因此,算法权力的膨胀完全超越了个体的对抗可能。算法设计的透明性原则、对技术平台“准公权力”的限制、数据权内容与归属的有效界定,是目前算法传播实践中抑制算法权力膨胀的主要策略。

算法的透明性原则主要指算法设计方和使用方应当对包括算法源代码、算法决策的输入输出过程以及算法所针对的“被决策对象”的知悉与认可过程等方面保持开放和透明。[42]美国计算机学会公众政策委员会于2017年公布了《算法透明与追责原则》(Principles for Algorithmic Transparency and Accountability),具体从知情原则、质询和申诉原则、算法责任认定原则、解释原则、数据来源披露原则和可审计原则等方面规范制约算法行为。[43]欧盟于2018年5月25日正式施行的《通用数据保护条例》也明确规定了算法处置应当对数据主体采取适当保障,同时面向数据主体适用透明性原则并接受质询。应该说,对算法施行透明性原则,在防止算法技术异化、保障人类主体地位方面是有效的。

只有数据主体才能拥有数据权,那么算法中谁才是数据权的实际拥有者?个人还是平台,还是共同拥有?之所以说数据权内容与归属的界定非常急迫,是因为数据与算法直接相关,数据(大数据)才是算法的基础。计算机只有在掌握大量数据的基础上才能运行算法,算法只有通过持续不断的数据“喂养”才能得到完善和进化;同时,算法又可以将大量“无结构数据”(比如各种购物记录、搜索记录、浏览点击、位置信息、社交信息等电子痕迹)进行转化从而对个体形成控制性和支配性权力,而这种权力因为被技术平台掌握而具有“准公权力”的特征。因此,数据既是算法运行的前提,也是算法权力生成的来源。就目前的制度探索来看,人们倾向于通过明确个人对自身数据持有自主决定权来保护个人主体权益,欧盟《通用数据保护条例》同样采用此种方式,即从个人对数据的自决权出发建构个人数据权利体系并以此约束算法行为。该条例的第2条明确规定,在数据流动和数据处理的过程中要强化保护自然人的数据权利,这些权利包括对自身数据的知情权、要求更正权、被遗忘权等具体权利形态。我国研究者也认为,国内应该尽快推出相关法律规定用以保护数据生产者的数据权益,其中,明确数据的产权归属是核心,建立使用者付费制度是手段,防止资本和技术对个人数据的滥用与控制是目的。[44]

四、结语

“技术比任何其他东西都更能定义它们所描述的时代”[14]81,现代智能算法也以其强大的社会嵌入命名了这个时代。于是,人们需要面对一种新型关系即人机关系,需要理解计算机语言带来的人类思维方式的改变,需要意识到“文明社会的每个角落都存在算法,日常生活的每分每秒也都和算法有关”[2]3。算法是一种媒介技术但绝不仅仅是技术,它是人类信息的感应器、读取器、聚合器和信息新的生产者,它以前所未有的技术方式重构了社会结构和人类生活。算法自主运行着的时候将其技术逻辑推演至人,体现算法的意志与规定性甚至算法的暴力,从而导致作为主体的人的意志、能力与欲望遭遇控制。回到一个必然会困扰人们很长时间的问题:算法还将如何影响世界?“看不见的手”还会怎样发挥它的作用?面对算法传播带来的理论与实践的双重挑战,我们仍然愿意在此重申人的主体性价值,并以此作为考察技术与文化、机器与人性的基本立场。

猜你喜欢

机器主体人类
机器狗
论碳审计主体
机器狗
人类能否一觉到未来?
论自然人破产法的适用主体
何谓“主体间性”
人类第一杀手
1100亿个人类的清明
未来机器城
略论意象间的主体构架