APP下载

算法时代,人的力量

2021-07-19刘书博

清华管理评论 2021年4期
关键词:算法人工智能人类

刘书博

新技术对人的冲击

上个世纪尾声,IBM研发的深蓝计算机(Deep Blue)击败了国际象棋冠军Gary Kasparov,令世人对“人工智能”(AI)刮目相看;2016年,谷歌开发的人工智能机器人阿尔法狗(AlphaGo)又击败了围棋世界冠军李世石。这时候,人们开始重新思考:除了是人类的工具,计算机算法技术还能够扮演什么样的角色?

作为推动力量,大数据算法技术不仅带来了互联网行业和独角兽公司的快速崛起,而且塑造和改变着各个行业。比如,在传播和市场营销领域,算法推送技术可以让传播者有针对性地为用户推荐新闻和信息产品,进而精准满足受众需求,提高用户粘性。今日头条、抖音等软件,均通过精准算法推送获得用户黏性。在工业制造领域,富士康早在2016年就引入四万台人工智能机器人,据说能够取代六万位工人。在组织运营和管理方面,计算机算法也被看作是提升工作效率的重要手段。有报道称,亚马逊公司研发应用了一套人工智能系统,通过它公司可以确定物流仓储部门每位员工的工作效率,进而统计出员工的“摸鱼”时间,然后自动生成解雇的指令。

算法技术也在改变着人们的日常生活和对世界的理解认知。算法应用日渐普及,不仅能够影响着用户的消费决策、民意大选,还能帮助警察逮捕嫌疑犯。不久前,英国伯明翰地方警局开始研发一套名为“国家数据分析方案”的系统,旨在通过对居民个人数据资料的分析,预测公民的“犯罪指数”,引导警方提前干预。算法甚至能指导我们吃什么食物、读什么书、选什么对象结婚。马克·扎克伯格说,除了进一步提升全球互联性,脸书(Facebook)将致力于“理解世界”这一全新使命。在他看来,“理解”这个词意味着:“每天,人们会将数十亿的内容和联系上传到脸书的Graph(脸书的算法搜索机制),通过这种方式,人们在构建一种关于这个世界所有需要知道的知识的最清晰的模型。”

以上现实让我们感到,和工业革命中诞生的技术相比,计算机编程技术、人工智能、大数据分析等,这些高歌猛进的“算法”新技术不仅推动了生产力和效率的提升,而且变得更加“智慧”、正在喧宾夺主。诸多领域中人类的决策正让步于人工智能,人类的活动要被算法所管理,甚至可以说,人类社会中,人失去了主动权,反而处处要被算法所治理。

就像围棋世界冠军柯洁说:“在我看来,它(指AlphaGo)就是围棋上帝,能够打败一切。对于AlphaGo的自我进步来讲,人类太多余了。”不少人相信,新技术一定能够更好解释一切复杂和快速变革的全局,算法能够理解世界的方方面面。

但是,真的如此吗?人的力量是否必然就会被新技术颠覆?未来的商业和社会中,算法可以完全替代人的作用、进而接过人的管理判断职能吗?

潜藏的算法危险

一些精英们似乎认同算法技术对人的替代作用。他们认为,技术更新迭代已经到了一个从量变到质变的时期:质变之前,AI等技术工具依然是人类的超级助手,而质变之后,新技术在某种意义上已经具备了一种自由行动者的模糊身影。而正是后一种自由行动的可能性,让人们开始对技术感到担心。

于是在2017年,埃隆·马斯克(Elon Musk)代表一百多位人工智能专家表态:人们应该停止人工智能开发,因为继续开发人工智可能会带来人类的灭亡……因为我们不知道会开发到什么程度。我们不知道人工智能是不是有自主意识,甚至它们可以隐藏自己的想法,直到有一天人类突然发现事态失控,再想去拔插头,却拔不了了。

然而在现实中,即便有马斯克和再多的专家提醒和警示,只要人工智能对人的服务能力还在快速上涨,它飞速发展的趋势就不会停止。资本的目的就是赚钱,这家不开发,还有更多其他家趋之若鹜、继续开发人工智能。相比于受限于生物局限性的人脑,电脑在某些方面(记忆储存、运算速度等)有不可比拟的优势,而且还在不断进步,这像是一种脱轨而出的力量,对人类投来冷冷的眼光。如同电影《黑客帝国》(The Matrix)描述的局面:所有人都生活在一个巨大的、他们认为很美好的世界里。世界的控制者母体Matrix不只是一个人工智能的无机生命,而且是一个碳基生命和硅基生命的结合体。这种情况下,被母体控制的人作为个体就像是小白鼠,人的生命的唯一价值是作为器官的供应者奉献给高级的碳基生命。

在现实中,越来越多的技术被应用到“提升效率”这一个控制母体(比如资本、组织)的单一目标,而并非关注人的全面发展,于是算法越先进,人的自由自主空间越狭隘,就像《外卖骑手,困在系统里》一文中描述的疯狂外卖小哥,人沦为了算法时代的炮灰、组织效率和资本的工具。这是算法只为资本利润服务所产生的“算法剥削”。

而且,人们只看到算法对效率的提升,但是数据分析系统的算法是否“公平”则很难自证。2015年,美国芝加哥法院使用的犯罪风险评估算法就被证明对黑人造成了系统性歧视:黑人更有可能被这个系统错误地标记为具有高犯罪风险,从而被法官判处更长的刑期。另外,数百万人由于该算法无法获得保险、贷款和租房等服务,如同被算法“囚禁”。

另外一个算法潜在的危险是人类伦理层面的。阿尔法狗的投资人坚恩·托林(Jaan Tallinn)说,我们需要重新定义AI研究的目标,不停留于单纯的智能开发上,而是要开发出能充分与人类情感价值观相融合的超级智慧。类似的,马斯克的新公司Neuralink致力于实现“人机融合”,就是把人的大脑与机器进行连接。马斯克解释说:“既然之前我对有关人工智能所发出的警告收效甚微,那么我们何不自己来决定它的发展,让它走向对人类有利的一面?” 马斯克认为人机一体是“走向有利一面”的唯一可能。

但是,这样的一种融入的姿态,带来了人工智能另一种危机,因为它将威胁“人类共同体”。 比如,上流社会凭借经济资源,可以通过技术干预方式对子女的外貌、体能、智能、健康等各個方面进行挑选塑造。然而绝大多数人承担不起这些新技术产品。社会上,老百姓和顶级富豪,前者占人口比例的99%,后者只有1%,但是所拥有的的财富却天壤之别,这本来是社会性经济层面的不平等,两者在自然生命上并无不等。而马斯克所要达到的人机融合,会造成这样的后果:因社会生活中的不平等,导致自然生命的平等也被破除。

人类共同体建立在“存在于相同中”之上,当1%的富豪用经济资源进一步获得与99%的人在生物层面不再“相同”之后,那么是否就意味着,未来世界不是人工智能统治人类,而是马斯克式的超级人造人统治一切,不平等在生物层面进一步固化。 如果这样的话,不远将来,没有经济资源购买生物资源的人会快速贬值为多余的“无用阶级”。原本人类共同体在生老病死面前是公平的,这个公平被技术破除后,人类共同体的基础也就荡然无存。

最后,互联网平台开发智能推荐系统往往是根據用户使用痕迹进行关联推荐,算法越智能,越能使用户被“安排”进所谓的“信息茧房”,即陷入为其量身定制的信息之中。久而久之,用户处于信息“自我禁锢”困境,从而失去了解更大范围事物的机会。这样就可能导致人们视野日趋偏狭,思想日趋封闭、僵化,甚至极化。

以上这些与算法相关的潜在的伦理道德危险性,是我们必须要有所警觉的,是人的力量要有所干预的。大数据社会需要考虑算法治理。

算法不是万能的

在快速变化的环境中,心神不宁的人们想摆脱现实的不确定性,于是向科学的力量求助,并认为AI、大数据分析、算法新技术一定能够更好地解释一切复杂和快速变革的全局。很多人对于技术的倚重不仅来自技术带来的效率提升,而且更加来自 “技术崇拜”——用近乎虔诚的态度对待技术。甚至有一种激进的思维希望用算法理解世界的方方面面,并且认为科学知识优于其他类型知识。

此思维代表的是“唯科学主义”意识形态(scientism)——对算法技术的痴迷。持有此意识形态的人认为,算法是智慧与经验的替代品。在他们看来,无论是在医疗、教育、政府,还是在我们个人生活领域,人工智能与大数据分析技术都可以给出最优答案。

但是,算法并非全知全能,如果太过信赖技术,人的判断力还会被削弱。就像是我们专心盯着GPS,听从它发出的每一条指令,反而失去了对头上闪耀的星星的感知力。对于组织的决策者来说,只有具体的数据分析结果,依然无法胸有成竹;只有抽象的数据,而没有对现实的感知,就难以从数据中获得还原真实全貌的能力。数据没有了具体的语境背景和色彩,所呈现的只是这个世界的抽象表征,而不是世界本身。如果管理者、决策者总是被一层层抽取到的数据所包围,他们的想象力和直觉就会枯竭。就像是只吃各种维生素和工业提纯后的营养液,导致味觉退化。人的独特能力是不能够被机器和技术替代的。

算法技术本身不能给出有关真实性的全部答案。因为大数据背后的假设关注的是相关性,而不是因果关系,所以大数据可以提供信息,但是无法给出解释;大数据可以构建事物在统计上的显著关系,却不能解释为何会出现这样的现象。经济学家蒂姆·哈福德说:“大数据并没有解决困扰了统计学家和科学家几百年的问题——关于洞察力的问题,也就是如何推断到底发生了什么,并找出如何干预或优化一个系统的方式。”

谷歌的“流感趋势检索”案例呈现出了以上问题。2008年,谷歌的研究人员提出了一个用搜索词条预测疾病大规模暴发的想法。经过筛选与流感相关的检索,并对这些检索进行追踪,研究人员想当然地认为他们可以比美国疾病控制与预防中心(CDC)更早预测出流感的暴发。他们所采用的技术被命名为“临近预报”(now-casting)。这似乎是一次算法技术上的成功——谷歌的检索可以比美国疾病控制与预防中心提早两周预测出流感暴发。然而之后不久,谷歌的流感趋势预测就不灵验了——它并没有预测出2009年的H1N1流感大暴发,而且高估了2012-2013年的流感疫情。问题在于,谷歌的算法对于任何与流感季节相关的检索都会产生反应,但这些检索的背后不一定与真正的流感暴发有关。比如,像“高中篮球”和“鸡汤”这样的检索都会引发谷歌算法的流感警报。这是因为大数据并不关注解释,而只是反映经验主义者的思维。

大数据想要从等式中去除偏见,充分采用演绎思维,摒弃归纳的探究方式。它的逻辑是,在数据充分的情况下,数字就可以指向结论,根本不需要理论。但是,就如同谷歌流感趋势的例子所展示的,我们还需要进行更深入的分析,以探讨数据的相关性,并确定因果关系。大数据无法摆脱对传统研究方法的依赖,因为数据的意义仍然来自人对数据的解读。

如果像谷歌这样处理数据的话,大数据永远不能做到保持中立,不偏不倚。类似的,我们经常用所谓的“技术”手段来了解真实情况,但是却如隔靴搔痒。比如,公司管理者想要通过客户的“痛点”或“未被满足的需求”来帮助客户、消费者或员工。这些说法背后是一种居高临下的态度,拿着技术工具的放大镜俯视别人,将他人的经历抽象化、将人流动的想法和细微的个性差异解剖、放大分析,本质上是一种简化。

科学知识不断发展,但是来自科学技术的信息却导致我们对其他形式的信息与求知方式置若罔闻。而往往是那些能够接受各种形式的信息的人最终胜出。如果一个人只是相信科学知识和技术,那ta就会都被限制在了自己构建的“技术牢笼”:有的人被困在桌上堆满了数字表格的会议室里,还有的人被困在充斥着空洞的缩略语的战略会议中。无论是被困于哪种“技术牢笼”,ta都难以在复杂的环境下领会真正真实的生活。

比如,在一家制药公司,ERP系统可以告诉管理者有多少销售人员完成了季度目标,但是不能让管理者明白究竟是什么塑造了一位成功的销售人员;在一家时装公司,最新的市场细分模型能展示出不同的奢侈品消费者是怎样消费的,但是不能揭示出他们在消费时追求的是一种什么样的体验和心情;一家销售养老保险的公司要理解变老的感受,才能够走进老年人消费者的心里,赢得他们的好感和信任。而一个人变老的感受,是算法量化模型可以描述清楚的吗?

人的独特认知能力

所以,要寻找因果关系和现象形成的过程机制,依然需要人的投入、思考和归纳。只有人们自己可以从对具体经验和复杂现实的体察中总结提炼出捕捉整体真实性的理论框架。要把握这个VUCA时代的机会,企业高管不能迷信技术算法,更要随时掌握政治、科技、文化社会领域的新知识,并且理解不同方面信息是如何相互交织、共同塑造的。

比如,食品生产业务不仅是由定制市场进入战略、资本投入、产品市场定位构成。做好这个生意,还需要管理者理解人与食物的关系:如何消费和分享食物、美食聚餐对于人们的文化意义等。企业的发展战略也不僅是不同周期的计划目标和财务报表,也是与文化、人、情感相关。要真正了解生活在社会和组织环境中的人,学习者需要平视人,做人所做,见人所见,才能思人所想,获得同样的人的视角与思维方式。此外,要了解一种文化和人行为的社会背景,你还要去了解这样文化的历史、传承和习俗,从而获得人行为背后的复杂动机与经历的影响。

所有这些,都不是技术崇拜者和唯科学主义者迷信的统计学“大数据”和算法能够领悟的,而是需要真实场景的“厚数据”(thick data)。

对于“厚数据”的关注,体现在金融大鳄索罗斯的投资方法论中。因在童年时期经历了世界范围的战争,看到了人类的不理智,索罗斯对历史的非线性发展异常敏感。他意识到,宏大的政治事件,往往是由那些看似微不足道的人物事件引发的。理性的货币政策与条约的表象之下,是人们的愤怒、受伤的自我和地盘之争。

索罗斯基金管理公司所具有的人文思维文化要求投资人必须探寻数据背后的文化。索罗斯的投资伙伴罗伯特·约翰逊所遵循的独特流程是:“多数时候,数据并不是数字,它们无法在表格中量化。数据是经历,是报纸上的文章,是人们的反应,是对话,是描述性数据。”

索罗斯和同事们的决策过程并不是在办公室中反复摆弄各种模型分析数据,而是来到真实的“田野”进行调研,是从与真实的不同的人进行的互动中获得了真实的感受,而不是通过机械的经济学基础理论和大数据分析去感知市场动向。

投资和商业决策都需要数据来支持,但如果只是把数据理解为单纯的数字,你可能就会错过更本质的信息。像索罗斯这些投资者的天赋,就是能够在如海洋般浩瀚的数据、印象、事实、经验、观点和观测中找出规律,并把这些规律整合成一种洞察力。这需要与相关数据进行直接、几乎是感官上的接触,需要对什么与什么相匹配,什么源于什么,什么导致什么有一种敏锐的感知能力和整体思维能力。

类似的,英国历史学家哲学家以赛亚·伯林发现,就如同索罗斯这样的大金融家能够同时整合多种复杂要素一样,伟大的政治领袖也具有一套可以被称为“完全平凡、经验主义和准美学式”的个人技能。这些技能的特点,是以经验、对他人的理解和对环境的敏感为基础的现实参与。“整合那些千变万化、多姿多彩、稍纵即逝的,像一只只蝴蝶一样难以捕捉、分类的信息”。

这是一种了不起的能力,是算法和人工智能不能够替代人类的原因,因为人类有洞见。温斯顿·丘吉尔说:真正的才华,体现在人们对未知、危险和矛盾的信息的判断之中。

所以,那些认为只要数据够多,算法够先进,就可以无所不能的判断是站不住脚的。这和“唯科学论”和“拜科学教”的迷信一样,本质上是一种认知惰性和对未知领域的恐惧。

结语

社会学家马克斯·韦伯总结了社会“现代性”的三个特征:量化可计算的(calculative)、程序化(procedure)、反思性(reflexivity)。进入工业社会后,人们发现自己被束缚在“理性的牢笼(Iron Cage)”中,就像是如今被束缚在各种“技术牢笼”中一样,其中重要原因就是人们总是关注现代性的前两个特征,却总是忘记了反思——对整体的反思能力。人们对世界全局的整体性把握,正是人所特有的能力,这是算法无法替代的。算法也因此不能主宰人类社会。

现实中,当人们视算法及其提供的解决方法超过其他一切时,我们就难以看到人类智慧所表现出的机敏与精细。当人们将技术凌驾于人类之上时,就不再把数据与其他资源整合在一起,那么就会失去可持续发展的效率,因为它源自整体的思维,而不是优化的方式。

在商业竞争的快速变化环境中,管理决策者需要跳出“技术崇拜”和“唯科学主义”的限制,需要灵活自如地综合运用所有四种知识:客观知识、主观知识、共享知识、感官知识。有点类似管理学者明茨伯格提出的对管理的定义——管理既是科学,也是艺术,更是门手艺,这四种知识没有孰优孰劣。

客观知识:是自然科学的基础,例如“2+2=4”、“这块砖重3磅”、“水是由两个氧原子和一个氢原子构成的”。但这种类型的知识没有真正的视角,这就是哲学家托马斯·内格尔将其描述为“无源之见”的原因。客观知识可以被反复检验,并得到相同的结果。细胞、原子和小行星都可以用客观知识进行观察、测量,因为其结果是可复制的、普遍成立的,并与现实观测相一致。

主观知识:即个人的观点与感受。主观知识反映的是我们内在的世界。人们会把自己确信无疑的事情看作是知识。当我们说“我脖子疼”或“我饿了”时,大家就会尊重我们对自己身体的判断。当某个人正经历某种感官体验时,这种感受就是他的最真实的知识。

共享知识:与客观知识不同,这种知识是无法像原子和距离那样被测量的。同时,与主观知识不同,这类知识具有公共性和文化性。换言之,第三种知识是共享的人类经历。

感官知识:这种知识让我们利用一种关于世界的浅层次意识来决定如何行动。经验丰富的消防员通过“第六感”感受火焰的移动;专业救护人员在没有看到心脏骤停迹象前,已经伸手去拿除颤器。这些都是“技艺”层面的感官知识在发挥作用。

同时掌握四种知识,而不是仅仅盯着技术算法等客观知识,可以帮助人从特定的情境中抽取更多的关键信息,回归世界的真实。所以,我们既需要顶尖的电脑工程师和软件开发人员来推动算法进步,也需要才华横溢的诗人、艺术家、哲学家和人类学家来帮助我们获得整体洞见和灵感。我们需要综合方方面面的精彩见解,而不是试图作为单个的个体或文化达到最优状态。演算法可以提供最优路径,但是只有人——艺术家、思考者、数学家、企业家、政治家——具有洞察力和同理心的人,才能构建和解释意义、定义人类社会的目的。

算法时代,人的力量就体现于此,让我们看到它,使用它。

猜你喜欢

算法人工智能人类
人类能否一觉到未来?
人类第一杀手
Travellng thg World Full—time for Rree
2019:人工智能
人工智能与就业
谁变成了人类?
数读人工智能
学习算法的“三种境界”
算法框图的补全
算法初步知识盘点