论算法权力的规制——基于宪法价值的视角
2021-12-29吴松波
吴松波
(中国社会科学院大学 北京 100020)
引言
算法时代的开启,使得数字技术不仅改变科技,也在改变着生产方式,改变着商业模式以及人与人之间的关系。算法已不仅仅是特定的技术,更是社会权力运行体系中的重要变量。掌握算法的企业和组织利用技术优势,把控社会的信息及资源,引导政府的决策,甚至进入司法程序之中,形成了一种非国家力量的“准公权力”。所以,在如今的人类社会,由于算法权力的兴起和异化出现了“修昔底德陷阱”。人工智能时代背景下的各类数字技术为现代社会治理抛出了挑战。算法的日益强大让人类感到恐慌。正因为如此,当算法技术深度嵌入人类生活之时,算法权力将倾轧个人权利,算法权力和个人权利之间的冲突和平衡,是宪法时刻下的严峻挑战。在这样的冲突中,算法权力的治理路径应当符合宪法价值,不得背离现代国家的要求,提防技术对人的统治。
一、算法权力的兴起
在人工智能时代的背景下,数据的庞大与繁杂远远超过了人工算力的范畴,我们只能通过只能智能算法对数据进行分析。然而,智能算法本身不能生产任何目的,它只能作为手段在大量数据分析下寻找问题的最优解。随着人工智能的持续发展,人类将进入一切皆可计算的时代。大数据是当今时代最为重要的资源,而数据掌控者往往是最先进入这些领域的企业,算法又依靠着大量数据开始运行,故这些企业可以利用数据和算法把控社会资源,从而作出最利于自己利益的决策甚至可以影响政府的公共政策。算法权力就是这些人工智能技术发达且拥有大量用户数据的企业利用自身算法的先进性和隐蔽性来对公民、社会甚至国家产生影响的一种力量。马克思·韦伯曾指出,“权力意味着在一种社会关系里,哪怕是遇到反对也能贯彻自己意志的任何机会,不管这种机会是建立在什么基础上”。可见,权力根植于支配他人并使他人受其影响和控制之中,是一方对另一方的支配与控制。算法权力就是基于其要求的专业水平高、准入门槛高以及其内容的隐蔽性来彻底地实现自己的意志。故算法权力是一种算法支配者通过自身的技术优势在算法运行的过程中影响和调控算法相对人的新型技术性权力。算法权力的运行逻辑就是利用算法的隐蔽性来使得算法相对人将其自主支配的决策权让渡给了算法支配者预先设定好的算法技术之中。
二、算法权力对个人权利的冲击
现代宪法的根本原则就是维护公民的自由与平等,同时现代宪法精神也一直不断地强调隐私权和个人信息保护,而在算法时代里,这些构成我们赖以生存的价值与基础很有可能在无法察觉间遭受损害。
(一)算法权力给“人的尊严”价值带来的挑战
“人的尊严”的宪法价值内涵主要来源于康德所述“人是目的,不是手段”。人的尊严是一种宝贵的宪法价值属性:尊重和保护人的尊严是构成整个人权系统的规范基础。坚持人的主体性,禁止将人当作客体看待,秉持“人是目的”的原则,这就是“人的尊严”价值的主体要求。公民作为具有独立自由意志的主体应当享有得到尊重的权利,“人的尊严”的基本价值取向就是保护这种权利。然而,算法权力的兴起将给“人的尊严”的宪法价值带来前所未有的挑战。
一些权势集团能够凭借着“天然优势”形成对公共领域的“权力凝视”。由于算法在设计操作上的不透明性容易被一些权势集团所利用,通过影响个体行为以达到自身利益。即在算法运行过程中,从数据输入到结果输出,存在着由算法支配者所掌握的隐层空间,所以算法支配者可以通过这种隐层空间来达到自身的利益和目的。在这个过程的同时,作为“人的尊严”的价值也将被算法侵害,例如美团、饿了么等外卖平台企业就通过算法的运用来对劳动力进行最大化压榨,以达到平台企业利润最大化的目的,与其说外卖骑手“被困在了算法里”不如说这是算法支配者运用算法权力对劳动者个人权利的倾轧。一张精心设计的算法网络将配送员包裹在内,无法自拔。在外卖平台企业的算法逻辑中只顾利润的追逐,不顾人的主观能动性的局限性,一味地按照算法最优解给骑手派单,实现对骑手精准的控制。这不仅是漠视宪法“人的尊严”的价值,同时也是资本对劳动力的压榨。在算法系统里,只有数据,并没有人的存在,我们只是一个0编码的碳基人,就更无法谈上对人的尊严的价值判断。
(二)算法权力给平等权保护带来挑战
算法权力在运行的过程中很有可能形成算法歧视,算法作为预测分析技术,可能会因为内置性编码凝视,有限、不相关或不正确的训练数据造成算法歧视,将给平等权保护带来挑战。
在海量数据的分析下,算法支配者可以通过算法捕捉每一个公民的画像,即形成公民的“数字人格”,这些数据有可能相伴公民的一生。这种“评分社会”将使得个人权利的自我救济和保护在算法权力面前无法伸张。在算法权力的支配下,根据支配者的不同目的来获取公民的“数字人格”,这就不可避免地将公民划分成了“三六九等”。常见的是,算法通过用户数据分析用户的行事风格及爱好,对不同群体进行分类与身份建构,从而量身定制反映其支付意愿的价格,实现同物不同价的价格歧视。同时这种算法歧视也将排斥个人在社会生活中发展的多样性,由于算法黑箱的存在,算法本身也并非纯粹客观的数据处理技术,其存在诸多不为使用者知晓的因素,我们让算法代替自己做出选择,就将减少我们自身发展的可能性。其实算法在替代我们做出选择之时,我们就减少了自己人生的发展际遇。
(三)算法权力导致的公权力运行失范
现代宪法围绕着限制公权力做了一系列的努力。“公权力”属于他赋权,我们之所以愿意走进这个社会接受这个政权的统治并为此让渡自身的权利,那是因为我们相信这是一套好的社会制度,是可以带领人民走向富强的政权。这就是所谓政权合法性的来源,是我们所赋予其的。如今在算法时代之下,算法权力的运行并不属于“人们的赋予”,而是自赋权,从算法被带有目的性地设计运行后起,它便有了这种权力。因为算法的算力优势使得政府机关在决策过程中,需要算法依赖算法来提高自身的效率,这种技术依赖性使得算法权力在政权运行的角落里逐渐嵌入“公权力”。算法决策正在代替行政、司法决策。且有的人工智能技术日渐增强,赋予了非国家行为者特别大的权力。然而,算法权力为自赋权,其并不具有权力的合法性来源,一旦算法权力嵌入或入侵“公权力”,个人权利难以得到保证或者说个人权利难以对抗算法的黑箱化,造成个人权利和算法权力的失衡。
三、规制算法权力:达到算法权力和个人权利的平衡
(一)算法权力的运行应当符合“以人为本”的理念
人是目的,不是手段。以人为本才是现代社会发展的前提和基石,尊重人的尊严,强调人的价值是现代宪法价值的精神。虽然,算法的时代将不可避免地到来,站在经济发展和社会公共利益上的角度来说,算法的发展是合乎理性的选择。但是,人在算法面前不能保持主体性的话,如若算法的发展不以人为本,不受这些宪法价值的制约,其发展很有可能变成洪水猛兽,吞没基于宪法价值所要求的一切。也意味着现代宪法体制对算法发展和科技发展的退让,一旦退让,我们个人的自由与权利将没有持续存在的空间。2019年4月8日,欧盟委员会AI高级专家组制定并发布了《可信AI的伦理指南》,其中将人的尊严作为人工智能发展的核心价值,提出了可信AI的七项原则,其中包括人工智能不应该践踏人类的自主性,人们不应该被AI系统操纵或胁迫,并且,人类应该能够干预或监督软件作出的每一个决定。只有先设定好算法权力运行的限制机制,算法权力才能得到健康的发展。缺乏宪法价值的指引将导致技术的发展背离“人的关怀”,背离现代国家的要求,这样的技术发展将是无序的野蛮生长,将不受我们的控制。人的主体性地位必须贯穿科技发展的始终。
(二)设计算法伦理限制算法权力
算法伦理的基本价值取向应当是是保障人的价值和尊严,充分尊重个人权利。智能技术对大量信息的掌握会导致人类失去隐私和主体性价值,受到算法支配者效率为主算力逻辑的引导,算法设计者和开发者往往将注意力集中在吸引甚至迎合用户上。这种偏好原则可能将用户锁定在“信息茧房”中,从而忽视了用户的数字福祉(digital well-being)。故需要进行算法伦理的设计从算法设计的基础上引导算法逻辑的走向。算法伦理的设计首先要将人视为有权利的及有价值的个体,尊重人的自由和人格。其次要保证信息的完整性和私密性,用户隐私需要有所保障。算法伦理是从源头上限制算法权力的有力手段,算法伦理的合理设计能够降低控制算法权力的成本,对算法伦理应当投入更大的关注程度。
(三)强化政府算力
政府的算力如若得不到强化,其在监管算法及算法权力面前是无力的。平台企业聘请的人工智能专家都被支付了巨额的薪水,政府是无法在薪酬与这些致力于发展人工智能的企业媲美的。所以政府没有强大算力支撑,其也不了解这些企业的算法开发和算法运行,无法实现有效的监管。只有政府拥有一流的人工智能专家,能够了解算法的开发与运行,才能使得这些掌握大量数据的平台企业套上法律的缰绳。
首先,政府要加大对算法设计和研发的重视,进行政策扶植,建立算法研发科技中心,将智能算法系统的核心技术掌握在政府手中,避免演变为逐利的工具,确保国家在智能转型过程中的技术安全。从现有政府使用的智能治理系统的研发主体来看,表面上是不同层级的政府联合有关企业进行研发的,但智能治理系统的核心算法是由少数企业研发出来的。为了有效降低国家和社会对于主导算法设计和研发过程的资本的技术依赖,国家必须加大对算法设计和研发的投入力度,来打破企业对少数企业的算法技术依赖。其次还应当通过建立一些纠偏机制来获得与企业共同监管算法的空间。例如可以建立风险监控机制,对属于网络关键信息基础设施的网络平台企业,应当要求其和政府的算力部门共同建立针对算法失灵、算法崩溃的应急预案机制。故从算法技术上进行反垄断,打破少数企业的算法垄断是政府强化算力的重点。反垄断不仅体现在技术研发上,也应当有配套的法律制度,双管齐下来打破技术垄断,强化政府算力。
四、结语
面对人工智能时代下已经来临的宪法时刻,我们更需要宪法价值的指引。同时,随着算法在各领域深度应用从而涌现出“算法歧视”“算法黑箱”“算法独裁”等诸多问题。算法支配者通过算法过于人的算力以及算法黑箱的存在将自己的意图隐蔽的嵌入算法之中试图形成新的行为规范而直接或间接调控算法相对人行为使算法权力最终得以生成。普通的算法相对人无法抵抗掌控算法权力的算法控制者和算法设计者的侵害,所以我们需要通过为算法相对人设置权利来平衡双方不平等的地位,增加算法相对人的博弈资本,使其免受算法权力的侵害。只有跳脱出技术崇拜,充分意识到技术运用的非理性,在以尊崇宪法价值为核心的导向去构建和完善算法运用的规制路径才能捍卫人的尊严及主体性。