APP下载

试论人与算法的自由关系

2022-03-24彭理强

湖南师范大学社会科学学报 2022年2期
关键词:个体算法模型

彭理强,李 伦

尤瓦尔·赫拉利(Yuval Noah Harari)在《未来简史》中预言,在未来信息社会,自由主义将会终结,人类如何做出重要的人生决策将发生重大转变,拥有大数据分析能力的算法将比我们更了解我们自己,未来的智人将放弃自身的生物算法,“聆听算法的意见”,将数据流动的自由赋予信息,主张新的价值观——“信息自由”,放弃人文主义革命宣扬的自由、平等、博爱等旧的价值观。然而,丹尼尔·菲斯特(Daniel First)提出另一种对未来的描述:人类不会依赖算法来为自己做决定,算法只是优化我们的“选择环境”[1]。菲斯特基于以下观点认为赫拉利关于推荐算法未来含义的概念存在严重缺陷。其一,用户不会依赖算法为自己做决策,因为他们没有理由信任算法,算法是由公司开发的,有营利等激励因素。其二,对于我们生活中的大多数决策,算法将无法开发,因为与我们面临的决策相关的因素是我们的情景所特有的。菲斯特指出,即使算法可以为我们作出许多决定,自由主义作为一种政治制度也将毫发无损地存在。通过对赫拉利的“信息自由”和菲斯特的“个人自由”的批判性分析,本文尝试提出描述未来的另一种路径:我们应该对不同本质、作用于人的自由意志的不同阶段的算法做出区分,让算法的本质以真理的方式显现,人与算法建立“共在”的新型自由关系。

本文首先从工程的角度考察传统算法与大数据算法的技术差异性,以此揭示算法科学从封闭系统到开放系统的计算范式转向。然后,根据算法作用场域的不同,将算法划分个体决策影响型、社会资源分配型和自然科学型算法。这三个向度的算法意志分别作用于人的自由意志的产生、判断、实现的不同阶段。最后指出,赫拉利的“信息自由”观点谈论的是社会场域下的资源分配型算法和自然场域下的自然科学型算法,描述的是算法在人的自由意志实现阶段对人的异化;菲斯特的“个人自由”观点谈论的是精神场域下的自我认知影响型算法,描述的是算法在人的自由意志的产生、判断阶段对人的异化。他们谈论的是不同本质、作用于人的自由意志的不同阶段的算法,都没有全面把握人与算法的自由关系,都不是人类社会未来发展的应然图景。

一、算法科学的计算范式:从封闭系统到开放系统的转向

计算机应用初期,其运力和内存不足,研发类似冒泡排序、归并排序的算法,是为了在处理信息时采用最少的算力和最少的内存。算法的主要评价指标是时间复杂度和空间复杂度。早在1984年,图灵奖得主唐纳德·尔文·克努斯(Donald Ervin Knuth)就给出了经典的计算机算法定义:“(计算机)算法是一组有穷的规则,能够给出解答特定类型问题的运算序列”[2]。早期的算法都是在计算机操作系统的封闭环境中运行,且运行规则由代码硬编码指定,可称之为硬编码算法(hard coding algorithm,HCA)。硬编码算法是用计算机语言描述的解决问题的清晰指令代码,一般具有有穷性、确切性和可行性等特征。硬编码算法的这些特征使计算主义、逻辑主义追求绝对的、唯一的、永恒的、自足的确定性知识成为可能。

随着集成电路芯片上的晶体管数量的增多和成本的下降,计算机算力和存储空间得到了显著提升,传统算法开始式微。与此同时,互联网、物联网和各种智能终端的互联互通,产生了海量数据,海量数据的信息价值挖掘技术及应用成为算法科学研究的新热点,由此催生大数据信息价值开发的算法,即大数据算法(big data algorithm,BDA)。大数据算法可以分为以下三类:数据清理和预处理的算法;用于参数估计的最优化算法;机器学习算法。前两类主要用于算法工程师的模型建立阶段,第三类主要用于算法模型的应用阶段,应用的场景分为预测、分类和聚类等[3]。

大数据算法的模型不全是用代码来描述,数据将参与逻辑规则的建构过程,并且部分大数据算法的模型(如强化学习算法、人工神经网络算法)会随数据输入的变化而变化。算法科学的研究也开始由计算机科学扩大到统计学、数据科学等众多交叉学科。例如,计算机科学的“算法”与统计学的“模型”概念关联密切,二者常常用不同的概念描述相同的内容。统计学家用“模型”来描述自变量和因变量的关系,这种关系用数学函数及相应参数来定义。计算机科学用“算法”来定义输入信息与输出信息的关系。“算法”的规则对应模型的数学函数和参数。硬编码算法对应算法模型的参数以及函数都固定的数学表达式,大数据算法对应算法模型的参数以及函数都可能不固定的数学表达式。如果把算法(模型)当作现实世界对象的映射,模型中的数学函数就代表着现实世界中的现象或行为的运行规律,参数就代表着该现象或行为的趋向程度。不同于传统算法(模型)运行在一个封闭的计算机系统中,现实生活中的数据将参与算法模型的建构,使得模型的计算范式开始向开放系统转向。相比封闭系统的硬编码算法,开放系统的算法呈现新的特点。

第一,相关性和非因果性。对某超市购物篮清单进行分析发现,一种带吸管的不溢水杯与婴儿用的套在肚子上的游泳圈之间具有关联关系。这种商品关联关系提示卖场可以将这两类商品在夏季一起陈列,从而可以获得更好的商业机会。由于人类行为的外部数据的导入,算法模型能够通过分析事物数据间的相关性,“捕获”到事物的运行规律。美国计算机专家、图灵奖获得者吉姆·格雷(Jim Gray)提出大数据技术是一种新的科学发现范式,该范式与经验范式、理论范式和计算范式并列存在,相互补充,共同构成了科学研究的范式体系。需要强调的是,数据间的相关性是无法还原为现象的因果性,由于系统的开放性,模型自身无法解释现象。

第二,相似性和非确切性。硬编码算法模型的确切性表明,A输入与B输出的关系是稳定的,是不随外界环境的变化而变化的,由于输出是明确的、可预测的,所以结论也是设计者可以预料并解释的。与硬编码算法模型不同,大数据算法本质上采用的是非确切性的描述规则,A输入与B输出的关联是统计学意义的,而非确切性或必然性的,关联的内在逻辑是不同数据的特征向量。并且,数据特征向量的选择是人类自主的行为,是个体观察和经验的主观感受,极易受刻板印象、文化、情感等因素影响而产生偏见。比如人脸识别算法可能会把黑猩猩误认为黑人,这有两个方面的可能性:一是因为外表可能存在简单的相似性,由于之前大猩猩的图片没有被算法学习过,算法没能对大猩猩和黑人照片的特征向量作出区分;二是现实生活中带有偏见地错误标注数据,将黑人图片标注为大猩猩误导了算法。大数据算法应用于社会事务时,现实情况的复杂性和个体的主观性,使数据量化存在很多局限性。因此大数据算法的输出是含混的,或是对社会偏见的沿袭,有可能成为别有用心者恶意操纵的工具。事物是普遍联系的,试图用数学方法精确建构事物间的关系,存在方法上的不可行性。算法的输出是具体对象(现象)的特征向量,大数据算法模型试图用有限个特征向量的集合来描述具体对象(现象)时,是一种近似而非确切性的描述。

第三,生长性和非有穷性。算法在实践过程中演化出两个加强版——深度学习(Deep Learning)和强化学习(Reinforcement Learning)。深度学习是一种采用多层神经元的神经网络对参数结构进行优化的算法,尽可能地避免在训练数据时特征向量重叠造成分类错误的问题。强化学习是在训练数据的同时,通过环境的反馈获得新数据,并利用新数据循环往复地更新迭代现有模型的算法。强化学习使算法与环境互动,通过感知环境的反馈优化模型,类似人类反复从失败或成功中进行学习的模式。算法在两个加强版的基础上,又迭代出深度强化学习算法。该算法运用神经网络作为参数结构,并用环境反馈数据反复训练模型。算法需要在环境中不断“学习”,在“学习”中找到更优的结论。算法经过迭代后的不同版本表现出的效能差异性主要源自不同的数据训练过程和方法,类似于有机生物体的个体差异性是受其所处环境所影响的;模型通过数据的“喂养”日趋完善的过程,类似于有机生物体在吸收养分后的生长与进化过程,因此我们可以将大数据算法的进化过程称之为“生长性”。大数据算法建立了一种从输入数据到输出数据的模型,如果要建立输入数据到输出数据的完全关系,该模型理论上需要数据的总体而非样本。大数据算法原型的设计者、数据科学的发起人雷切尔·查特(Rachel Schutt)认为:“数据量越多往往对于建模越有帮助,我们可以无限地接近真理,但永远无法到达那里”[3]。大数据算法的这种成长进化过程具有无穷性特征。

由开放系统算法的特征可以看出,开放系统的计算范式不再满足传统逻辑主义、计算主义对确定性知识的表征,开始从唯一性、确定性向多样性、谱系性转向。

二、不同本质的算法与自由的不同场域

对技术本质的追问,是我们探讨人与技术关系的出发点。早在1877年出版的《技术哲学纲要》中,德国学者恩斯特·卡普(Ernst Kapp)对技术本质的问题做了开创性的精辟回答。在《技术哲学纲要》中,卡普提出“器官投影说”,把技术的对象——人工物视为人类器官功能与形式的延伸与强化。例如,斧头和剪刀是手的投影,电报是神经系统的投影。卡普等工程学的技术哲学家普遍认为,技术的本质是人的身体的功能或形式的对象化。人文主义传统的技术哲学家对此是持反对意见的,他们习惯用拟人、修辞等语言,把技术描述为人的精神活动,认为技术的本质与人的精神活动密切相关。法国技术哲学家雅克·埃吕尔(Jacques Ellul)就认为“技术是指在所有人类活动领域中,理性地获得并具有绝对效率的所有方法”[4],技术的本质是人类的理性活动。

开放系统算法的应用是信息时代人类生活和工作的一种范式,在人与世界打交道的过程中,算法扮演着各种角色的中介,从调节“我”的知觉到产生另一个“他者”之间,进行着非连续统的转换。当我们考察开放系统算法的本质时,将其定义为某种特定形式和功能的人工物是不够全面的。开放系统算法由于其应用的开放性、包容性等特征,被认为是一种泛化的技术,所以当我们讨论人与算法的关系问题时,其实就是在信息社会的背景下追问技术的本质问题。在对技术本质的探讨中,卡尔·米切姆提供了一种有价值的综合性思维框架,认为技术是客体、知识、活动和意志的完整集合体[5]。卡尔·米切姆的技术分析框架为我们综合理解算法的本质提供了很好的讨论视角。

“自由”意味着个人凭借自身意志而行动,并为其自身的行为负责。“自由”因其涉及主体、对象及其关系等原因,在没有对其进行明确的分域的基础上谈论人与技术的自由关系,都只能将之理解为在表达一种对现实的不满情绪。根据人所面对的不同存在对象将自由分为三个方面:“一是人在精神中的自由,二是人在社会中的自由,三是人在与自然交往过程中的自由”[6]。为了全面把握人与算法的自由关系,为新型自由关系开辟伦理学空间,不妨据此将人的存在划为自然、社会、精神三个场域,同样,根据算法调节的对象不同,我们可将算法分为个体决策影响型算法、社会资源分配型算法、自然科学型算法,分别用来调节“我”与自我、他者、自然三者的关系。我们把算法与哲学人类学的本质放在一起思考,最终要揭示的是算法在不同场域内在本质的差异性。

第一,个体精神场域中的个体决策影响型算法。人的自由意志如何做出道德决策是一个有争议的话题。以皮亚杰和科尔伯格为代表的心理学家认为,从个体认知发展的角度研究人的道德发展规律,道德推理是人有意识的认知活动,是一个理性推理过程,在道德判断过程中不存在直觉及顿悟,即使情绪情感参与其中也不发挥主要作用。海德特(Jonathan Haidt)不赞同科尔伯格关于道德判断是经过意识层面的道德推理而形成的观点。海德特强调情绪在决策中的作用,提出道德判断的社会直觉主义模型。社会直觉主义模型认为,道德判断主要是由情绪诱发快速、自动的直觉所致,而道德推理是依靠逻辑来作出判断,是在道德判断之后的合理化过程。道德推理通常是一个“事后的建构”,在道德判断完成之后产生,道德直觉推动道德推理正如“一只狗摇摆尾巴一样肯定”[7]。格林(Joshua D. Greene)不满海德特对道德判断的情绪主导作用和道德推理在道德判断中所扮演的辩护角色,提出道德判断的双重加工模型。双重加工模型认为,道德判断是理性和情绪共同作用的结果:在道德判断的过程中,一方面受到由情绪诱发的直觉系统的影响,另一方面受到认知过程中产生的理性推理系统的影响,前者是一个平行的自动化加工过程,而后者则是依靠个体调节和控制实现。当两者一致时,道德判断既遵从直觉又含有理性推理。当两者相冲突时,如果情绪战胜了认知,那么个体判断倾向于道义性判断;当认知战胜了情绪,那么个体则会倾向于效用主义判断。

情感和认知,究竟哪个对个体决策发挥决定性作用,学者们争论不休。我们倾向于认为情感和认知两个变量都对个体决策发挥着不同比例的影响,具体某个决策受哪个变量影响更大,取决于决策发生时个体可及的理性推理时间、认知的信赖程度、情绪的调节能力等因素,表现为一定的个体差异性。个体决策的差异性也为提升个体精神场域内自由意志的判断力提出了必要性。

通过分析,我们可以找到影响个体决策的两个重要变量:情感和认知。最终我们想揭示的是:信息时代的新媒体,例如新闻头条、抖音短视频、知乎等平台,后台嵌入的信息推荐算法改变了信息传播的范式,也深刻地影响着个体的认知和情感,进而影响着个体决策。比如Facebook可以通过操作用户看到的信息,影响选民的情绪,进而引导选民的投票。信息推荐算法通过监控用户点击的具体媒体内容、停留在该媒体的时间,分析个人的偏好,并结合可获取的用户个人信息,给个人“画像”。这些算法无论其设计的动机是为了迎合用户的个人偏好,还是嵌入了不可告人的监控目标,我们都将此类型的算法定义为个人决策影响型算法,它们对公众的情绪和认知都发挥着举足轻重的影响,特别是普及率非常高的超级平台算法。

第二,社会场域中的资源分配型算法。社会场域是人与人发生交往的世界。生产与分配是社会重要的交往活动,通过人与人的合作实现社会化大生产。在人类历史的不同阶段,生产关系与当时的社会生产力相适应,分配关系与当时的社会结构相匹配,即技术的发展水平影响人类的生产方式和生产关系的变化,但社会资源的分配关系一直都是由权力阶级来主导。

我们可以从人类社会与技术的发展史来一窥分配主体的历史变迁。在《技术与文明》一书中,人文主义技术哲学家刘易斯·芒福德(Lewis Mumford)根据技术对人类生活和文化所造成的不同影响,将技术的发展史划分为三个“互相重叠和渗透的阶段”。在始技术阶段,人类掌握的技术主要是生产工具的简单改造和可再生资源的利用,该时期生产力比较低下,与之相适应的劳动分配模式是平均主义。比如原始社会时期,人类祖先常以部落的形式群居,狩猎等凶险的劳动是由青壮年男子去完成的,获得劳动成果后,部落内男女老少,无论是否参与这项捕猎行动都可以得到平等的一份,绝对平均是最原始的分配原则。技术的进步带来生产力的提高,生产力的发展必然引起生产关系的变革。随着耕种技术的掌握,耕种的土地成了重要的生产资料,在这种生产资料的占有方式的基础上形成了不同阶级的对立,社会资源的分配由占有生产资料的阶层来主导,平均主义的分配原则在始技术阶段就被打破。在古技术阶段,煤、铁等不可再生资源为机器的自动化生产提供了源源不断的动力,机器自动化的生产方式降低了资本家对熟练手工业劳动者的需求,“机器对以手工业中的分工为基础的生产方式,以及对建立在这种分工基础上的劳动力的各种专业化发生否定的作用”[8]。因此,在始技术和古技术阶段,技术进步引发生产关系的变革,但分配关系还是由生产资料的占有者来主导,而非技术主导。

芒福德认为新技术阶段是电与合金复合体的应用时期,新技术的发展具有两种潜能,一种是民主的综合技术,另外一种是集权的单一技术。综合技术“大体上是以生活发展为方向,而不是以工作或权力为中心的”[9]。而单一技术是一种复杂的、高度权力化的“巨机器”。芒福德对新技术发展的“两种潜能”的论断,虽然他本人没有明确表示区分的依据是分配主体的不同,但是他的“巨机器”的概念:人类生产与分配活动高度集权化的技术,就已经预言了技术介入人类分配领域的可能性。

人类主导分配的历史可能会被信息时代的算法终结,算法具有介入人类社会资源的分配领域的潜质。比如银行通过建立信用卡违约人员的属性特征模型用于放贷决策,汽车保险公司通过建立理赔人员的行为模型用于保险费金额的决策,企业通过建立优质员工的行为特征模型用于招聘决策等,这些算法有一个重要特征就是它介入了公共利益与个人利益的分配领域。在社会场域中,算法开始向社会、经济、政治等多领域渗透。为了讨论的需要,我们把调节社会公共资源的分配领域的算法定义为“资源分配性算法”。在信息时代,社会公共资源如何分配的问题既是一个社会政治问题,同时也是发展“民主的综合技术”的潜能问题,研究的目标是探究“资源分配性算法”介入公共领域的应然性问题。

第三,自然场域中的自然科学型算法。科学认识是对事物真理性的把握,科学认识的获得离不开人的主观性,但这种主观性不能遮蔽其客观性内容。经验主义认为感性经验是知识的唯一来源,知识通过经验获得并在经验中得到证实。小数据时代,人类依靠观察和收集有限的数据,然后运用理性思维建立理论模型,最后在实践中利用理论模型的演绎来把握和预测规律性,因此理论模型的建立源于人类观察后形成的经验。大数据时代,数据采集突破了地域性、时间性和规模限制的瓶颈,科学的发现不再仅仅依赖于理论模型,分析数据间的相关性也可实现知识的获取。我们可以用“大数据主义”这个概念来描述这种认识论的转变。该认识论认为,算法是一种数据驱动的经验主义模型,该模型不再只依赖人类自身的观察和科学实验的发现。该模型可以通过算法和数据建构物理模型。因此,除了经验和观察外,算法已成为人类认知的新范式。在自然场域中,为了生存与繁衍的需要,人类必然会不断拓展自身周遭物理世界的认识,而认识的终极目的就是对客观规律必然性的把握。

三、人与开放系统算法之自由关系的异化

从算法的模型看来,具有相似行为特征的人,下一步行动的选择具有趋同性。在算法的逻辑中,人类行动虽然是由个人的意向和冲动发起,然后经个人意志权衡利弊后作出的理性或感性选择,但是大脑的运行机制是可以通过分析更多维的个人数据特征向量,建立更复杂的理论模型,采用更强大的算力,实现人脑算法机制的还原,即人的命运冥冥之中可能是被决定的,个人的自由意志只是使个人在现实中左右挣扎了几下,最终还是要汇入到必然性的历史洪流中。

算法通常能够给我们更好的选择,我们是听命于算法,还是反抗于算法?在学科分化和技术科学的推动下,工程派也在人与技术自由意志之争这条道路上开始付诸行动,他们希望通过更复杂的实验、更强大的设备来实现对主体——我之外的人和物的操作和控制,也就不断有机器是否应该纳入道德主体、我们应当如何对待机器人、如何制造一台具有道德决策的机器等的讨论。

按照主体性理论,自由意志是人独有的,是一切道德理论价值与意义的源泉,是人区别于其他物种的基础,决定着人的本质。但是,如果所有人生重要决定都由算法做出的话,那么,这是对人类自由意志的否定,同时也意味着人的本质的异化。

第一,个体认知的自我异化。在个体精神场域,我们没有否认个人自由意志的缺席,只是在表达一种对个人意志被算法“规训”之可能性的担忧,就如赫伯特·马尔库塞(Herbert Marcuse)所描述的,信息社会是一个发达的工业社会,如果不对超级平台的个体决策影响型算法加以引导和约束,人类社会将演变为新型的极权主义社会,这个社会的人是一个丧失否定、批判和超越能力的“单向度的人”。米切姆在《通过技术思考》中分析作为知识的技术类型时强调:“技术不是知识的应用,而是知识的一种形式,它一直依赖技术技能”[5]。而现代技术的重要趋势就是“去技能”,技术对熟练的匠人所知的技艺进行理性化,并用无技艺的劳动者取代技艺高超的工人。人因为缺乏有益的知识,或者被谬论充斥着头脑,心智的认知结构被慢慢改变,如果自身没有意识到个人处境并寻求突破,就会在“信息茧房”中“作茧自缚”,最终就会被“去技能”,完全失去反抗能力。我们把个体决策影响型算法对个人认知的挑战定义为个体认知的自我异化。个体认知不加以善的引导,就会被伪善或者恶所蒙蔽,我们用异化这个概念来表达人的反常状态,而人的常态是个体与自我、社会、自然和谐共生的应然之态。

“单向度的人”是缺乏知识、没有批判性和否定性思维的人,同样是丧失其本质的人。作为“知识”的算法,比如新媒体平台的内容推荐算法,通过监视和分析个人行为,预测个人的兴趣和需要,极化、窄化个人认知系统,造成个体认知层面的误解和偏见。大数据算法可能加剧个体非理性的需要,人一旦对算法产生依赖心理,会放松自身的警惕性,完全沉浸在算法输送给自己的狭小的、单薄的、舒适的信息空间,失去对合理性的反思和质疑。此模式循环往复后,个人将会陷入单向度的思维,成为单向度的人,引发个体认知和决策的风险。

第二,社会分配的群体异化。作为“客体”或“活动”的算法被应用于社会分配时,会使个人在社会中受到不公正的对待。在大数据时代,我们在赛博空间中实践着工作和交往等多项社会活动,个体的自然、社会等N维属性在赛博空间中只是一维或者小于N维的数据化符号,生活世界中丰满的个体在赛博空间中被大数据算法分组为各种符号化群体,而不管他应不应该属于这个群体。比如,求职招聘大数据算法首先分析绩优员工和绩劣员工的数据特征向量,然后与求职者的数据特征向量进行对比分析,算法直接忽视了个体的差异性,使个体受到不公正的待遇。

社会分配型算法对人的群体异化主要源于算法的无意识性,使得伦理实体中的权利与义务在现实中相分离。作为“意志”的算法一旦脱离产生其意志的主体——工程师,最突出的后果是善的缺失,进而使人的类本质生成失去现实存在的土壤。“善的缺失”意味着在现实中未被实现的自由。大数据算法是工程师“意志”的现实化,工程师赋予算法“灵魂”,延展算法使用者的心智,算法应该关照到使用者的价值和利益。一方面,工程师设计算法的目的和伦理标准,伦理学应该对此作出清晰的界定;另一方面,应当使算法增进个体的福祉而不是相反。

第三,人的自然本质异化。“人是类存在物,不仅因为人在实践上和理论上都把类——他自身的类以及其他物的类——当作自己的对象;而且因为——这只是同一种事物的另一种说法——人把自身当作现有的、有生命的类来对待,因为人把自身当作普遍的因而也是自由的存在物来对待。”[10]人作为自然的存在物,也具有一定的物理特征。从算法的视角来看,人的物理特征是大数据算法分析的原料,比如分析个人数据可以准确识别并定位到个体,分析个人行为数据可以预测个人的行为趋势。大数据算法作为人类认识与改造世界的工具,理应为人类所用。当算法可以识别并预测个体的行为时,不受约束的形式化与逻辑化的算法理性可能反客为主,监视与控制人的行为。人与动物的最大区别是人具有自由意志,可以克服动物性的本能需要,理性地规划自己的存在方式。但在自然场域,人的自然属性成为算法分析和控制自身的“泄密点”,成为异己的对象。为了保护自我不被监视和控制,可能的消解方式便是主张个人数据的保护,逃避算法的霸权。

四、共在:从认识论到存在论

人的主体性理论强调人在万物中的重要地位,并在形而上学上预设人的本质。一方面,主体性理论强调人的主观能动性,人之外的物是人可认识的客体,客体是现代技术可任意操作、控制的对象。技术乐观主义是关于人的本质力量外化的极端思想,它来源于人的主体性理论。技术乐观主义认为技术能够解决一切现实问题,包括由技术自身产生的问题,如果问题暂时还不能解决,也只是因为我们现在对事物的认识还不够深入和全面,相信最终都是可以用技术解决的。赫拉利预言在21世纪,建立在自由主义之上的所有基础都会被大数据算法破坏,最终导致自由主义垮台,因此“信息自由”更符合智人的价值标准[11]。他解释说,大数据算法最了解什么对公民及其国家最有利。比如,当政府或谷歌有了一个算法,可以决定你的孩子在哪里上学更适合成才,或者你跟谁结婚最幸福,选择权就不再需要留给你了,人的自我决定将是多余的。在人与算法关系的选择上,赫拉利倾向的则是技术乐观主义。

另一方面,人的主体性理论强调人的自主性,因为人有自由意志,可以自我决定。人的自主性表明我可以拒绝外部世界对自身主体地位的挑战。比如,在对未来世界的描述中,菲斯特就认为,大数据时代自由主义的基础依然毫发无损。他解释说许多人生决策过于局部,无法收集大数据;其他决策则不容易量化或依赖于价值判断。即使人类可以开发出算法,人们是否应该仅仅相信算法的结果,这一点也不明显。神经科学已经证明人类缺乏自由意志,并表明这远不是决定性的。最后,他认为自由主义有更多的社会力量支持它。对算法如何影响我们的决策这个问题,菲斯特持一种技术工具主义的观点。技术工具主义认为技术只是我们使用的工具,它自身没有价值负载。

传统主体性理论的主客二分使哲学陷入解释困境。海德格尔认为克服这个缺陷是哲学的一项重要任务,他认为传统本体论是没有根基的,因为它没有考察心灵实体或物质实体的存在方式,而总是将人类“存在者”视为“存在”,忽视了人类“存在者”的“存在”。人从来不是世界的主体,世界也从来不是人的客体,笛卡尔的“我思”和“我在”,康德的“直观”和“意识”都是静态的认识我们周围的事物,当我们从实际生活出发观察事物本身如何显现时,我们会发现自身早已融入这个世界——“在世界中存在”。“在世界中存在”的含义是人总是融于世界,人与世界不可分。赫拉利预言的被算法决定的自我和菲斯特预言的自由决定的自我,都将人与算法的关系置于割裂的对立面,而忽视了两者的共在关系。维贝克(P.P.Verbeek)将这种由人和算法共同作用形成的意向性称之为“杂交意向性”或“复合意向性”,“复合意向性”的概念很好地阐释了人与物的共在理念。布鲁诺·拉图尔(Bruno Latour)认为自然与社会、主体与客体、人与非人、物与非物都是“行动者网络”(actor-network)中的元素,在网络中相互运动,彼此共生且共成一体。拉图尔用“行动者”来表示所有在行动过程中发生作用的各元素以及他们的共在关系。海德格尔曾引用荷尔德林的诗句:哪有里危险,哪里就有拯救的力量,呼吁人们唤醒艺术世界与诗歌世界中的“思”来实现自我救赎,回到本真的生活。“拯救”的目的是让事物的本质以正确的方式显现出来,事物的本质是事物本身或事物不依赖于人的存在。人不创造算法,算法只是被工程师发现、设计后显现自身的一种方式,但不是唯一方式,人与算法本来就共同存在于这个世界之内。因此,在未来信息社会,不可见的算法作为调节人与自我、社会和自然的中介,不同本质的算法作用于人类自由意志的不同阶段,要使算法增进人类的福祉,人类需要把握人与算法不同场域的自由关系,我们将共在定义为这种新型的自由关系,用于诠释人与算法的自由观从认识论到存在论的转变。

五、新型自由关系下需关注的两个问题

数据只有流动才会产生价值,这些流动的数据被诺伯特·维纳(Norbert Wiener)称为“信息流”,它是信息社会的动力之源。“信息流”的存在需要人的领悟,只有人才会追问存在的意义。大数据算法是对“信息流”进行开采、改变、储存、分配、转换的解蔽方式,包括人本身都被解蔽为持存物,具有把人连根拔起的风险。人与算法不是彼此孤立的存在者,试图用一方去控制另一方的能动者概念,或是一方决定另外一方的决定论概念,都不能把握人与算法关系的本质。人与算法共在关系的目标是发展一种新型自由关系,使个人与社会的福祉得到提升。

第一,如何让算法的本质以正确的方式显现。海德格尔认为真理显现自身,如果我们思考技术的本质问题就会发现,人生活在真理的显现中。当我们思考、注意、回忆算法的显现时,我们不能只把算法看成孤立的可以自主决策的机器,相反,它是人连接万物的中介,我们“看到”的是算法以及与它相关的其他事物形成的整个世界,其他事物处于算法世界的边缘。因此,如何让算法的本质以正确的方式显现关乎人类存在的意义。人的存在先行于物的存在,算法本身无所谓善恶之分,做出价值判断的是人。算法本身无所谓好坏之分,好坏都是人类赋予生活的意义。如何让算法的本质以真理的方式显现,需要我们谨慎思考算法赋予我们的意义。首先,算法设计前应该具有“善”的理念,无此理念的算法是对生活意义的漠视与疏忽,不应该被开发;其次,应该关注算法应用中“善”的理念的实践情况,通过实践来反思我们的设计;最后,还应该反思我们的生活,以此来指导我们的设计。

第二,如何把握人与算法的信任关系。算法代替人做出决策是新型自由关系下的极端选择,这种决定是否出于人的意愿关乎人与算法的信任问题。人与算法首先是一种共在关系,在这种关系下,如何行动的问题将交由受信任的任何一方去实施。如果人把个人意义的决定权交给算法,究竟是盲目的信任还是理性的决策?“中文屋”的实验表明,算法只是一种符号化操作,算法可能永远都不能理解人类的意义,这是否意味着算法代替人做出决策是不明智的?依据伊德关于人与技术关系的阐述,我们认为人对算法的信任程度应该与其具身程度相适应。人与算法的信任关系构成了一个“连续统”,在这个“连续统”的一端,算法被我具身,我可以把算法融合到我的经验中,我凭借我的经验给予算法适当的信任,在我的世界直接呈现,进入并构成我自身的生存关系中;在“连续统”的另一端,我被算法完全具身,算法成为我生活世界的背景,我应该与算法建立完全的信任关系,使算法作为“准他者”而决定我的存在;存在两端的是诠释学关系,我需要依据更多的背景知识来解释我与算法的信任关系,当我无法获取背景知识或者忽视它时,我将处于“非本真的生活”状态中,而我们应该要回到“本真的生活”,“本真的生活”需要我们诗意地选择算法的无遮蔽状态与被遮蔽状态的统一。与算法建立共在的新型自由关系,不是唯算法是从,让算法限定我们的思维,而是人应该把握算法的不同本质,赋予算法人的意向性——将人类价值嵌入算法,让算法成为善行者或行善者。善行者是自身成为善的行动者,行善者是促使他者行善的行动者。

猜你喜欢

个体算法模型
适用于BDS-3 PPP的随机模型
重要模型『一线三等角』
重尾非线性自回归模型自加权M-估计的渐近分布
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
关注个体防护装备
进位加法的两种算法
3D打印中的模型分割与打包
一种改进的整周模糊度去相关算法
个体反思机制的缺失与救赎