APP下载

厌恶算法还是欣赏算法?
——人工智能时代的算法认知差异与算法信任建构

2022-10-31杜严勇

哲学分析 2022年3期
关键词:信任算法人类

杜严勇

在信息时代与人工智能时代中,算法主要指计算机中采用的解决某个具体问题的计算规则与有限的操作步骤,或者说是计算机的编程方法与技巧。将算法使用编程语言进行描述,就成为一个程序,软件是程序的有机集合体,因此可以把算法看作程序和软件的基础。一般认为,计算机科学是研究算法的学问,算法、算力与数据是人工智能的三大要素,可见算法之重要性。

众所周知,算法在速度与某些精确度方面,已经远远超越了人类。那么,当我们同时面对算法与人类专家的操控、推荐、预测时,如果可以自由选择,我们是决定选择算法还是人类专家?哪种方式是更合理的呢?人们可能凭直觉认为,我们应该相信并选择算法,但事实并非如此。比如,美国每年因为车祸死亡人数约35000人,大多数是人为的错误导致;尽管自动驾驶比人类驾驶更安全,但调查表明,有78% 的美国人表示害怕乘坐自动驾驶汽车,其中女性(85%)比男性(69%)的比例更高。2020 年进行的对1200 名美国成年人的调研表明,有48% 的人表示他们永远都不会乘坐无人驾驶的出租车或共享汽车;60% 的人表示如果他们对无人驾驶技术的工作机制更为了解的话,他们会对其更加信任一些。调研同时发现,残疾人对自动驾驶技术的态度比正常人更加积极。

从人们对无人驾驶汽车的态度可见,影响智能产品被公众接受的障碍可能主要并非技术上的原因,而是人们的心理因素。本文试图综合比较关于算法认知的各类实证研究结果,分析人们对算法的不同态度及其影响因素或原因,进而探讨建构算法信任的有效途径,为智能时代的技术认知与技术接受研究提供一个富有启发意义的案例。

一、厌恶算法现象及其解释进路

(一)厌恶算法的表现与定义

20 世纪50 年代,有一些学者认识到,虽然恰当的数学模型作出的预测往往比人类更优越,但人们还是倾向于拒绝让算法为他们作出抉择。即使是在以算法为基础的各种辅助决策工具得到广泛应用的21 世纪,人们还是存在类似的表现。比如,雇主在选择求职人员的时候,虽然有各种标准化的程序可以采用,但他们仍然更乐于相信自己的个人判断。有学者详细比较了人们对不同抉择模式的态度,结果发现人们普遍喜欢有人类参与的决策过程,不太喜欢仅仅由算法作出的决策。

随着人工智能科技及相关产业的快速发展,上述现象得到越来越多的学者的关注。美国学者狄伏斯特(Berkeley Dietvorst)等人在2015 年发表的论文中认为,基于证据的算法可以作出比人类更准确的未来预测,但是当要决定采用人类预测还是统计算法的预测时,人们经常选择人类的预测。他们的研究表明,在发现算法犯了与人类同样的错误之后,相对人类预测者而言,人们更容易对算法失去信心。于是,即使看到算法在某些方面胜过人类预测者,人们仍然会厌恶算法,狄伏斯特等人把这种现象称为 “厌恶算法” (algorithm aversion)。在2018 年发表的论文中,他们直接将 “厌恶算法” 定义为:虽然基于证据的算法始终比人类预测者表现出色,但人们在发现算法的瑕疵之后往往不去使用它们。

需要注意的是,狄伏斯特等人的研究强调的是人们在看到算法出现错误或不足之后,才会对其产生厌恶现象。事实上,人们在没有看到算法出错的情况下,仍然可能会出现排斥算法的情况。通过对近百名在校大学生的调研表明,相对于精算系统而言,大学生对于有人类参与的决策表现出更积极的态度。更为有趣的是,相对于使用算法辅助手段的医生来说,大学生对不使用算法辅助工具的医生有着非常显著的积极评价,但对于向同行专家寻求建议的医生却没有这种现象。类似的现象在教育、经济等不少领域亦有发现。

因此,我们倾向于对 “厌恶算法” 采用一种更一般性的定义:相对于人类而言,人们对算法(及其相应的程序与软件)存在一定程度的片面评价,表现为对算法的消极行为与态度。之前的相关研究主要是心理学与管理学等领域的学者较为关注,但狄伏斯特等人的研究引起了更为广泛的注意,特别是得到很多关注人工智能科技发展与社会影响的科学家与人文学者的普遍引用。大多数学者倾向于认为,我们不能仅仅将重点聚焦于提高算法的精确性与稳健性,还必须重视公众对算法的认知态度及其影响因素,后者会在很大程度上影响公众对智能产品的接受与使用情况。

(二)厌恶算法现象的若干解释进路

:这是研究者最为关注的一种解释模式。人类对于一种没有使用过的新技术会产生本能的排斥与不信任,这是一种正常现象。在算法认知方面具体表现为以下几个特点:其一,对人类本身的错误较为宽容,而对算法错误的敏感性较高,宽容度较低。人们通常认为人是不完美的,犯错误是正常现象,但机器应该是完美的,不应该犯错。前文已经提及狄伏斯特等人的研究表明,人类对算法出现错误很敏感,因此导致厌恶算法的现象,还有更多的调研亦验证了这一点。比如,虽然专业人员普遍认为无人驾驶汽车更为安全,但它在现实中无法完全避免不出现事故。但是,不管事故的严重程度与具体原因,人们总是倾向于认为涉及无人驾驶的交通事故比人类驾驶车辆的交通事故更为严重。也就是说,人们不仅对无人驾驶汽车的接受度不高,而且对无人驾驶引发的事故持有某种程度的偏见。还有学者发现,虽然来自人类的建议并不比来自计算机的建议更受欢迎,但是,如果人们收到糟糕的建议之后,来自计算机的建议的利用率比人类建议的利用率下降更加明显。

其二,人类认知中的过度自信(overconfidence)现象。过度自信是人类在判断与抉择过程中非常普遍的认知特点,具体而言有三种表现形式,即对自己的实际表现过高估计、对自己的表现相对于他人过高定位、对自身信念的理解过分精确。过度自信可能产生认知偏差,这种情况在人们面对算法决策建议时也经常发生。目前不少实证研究表明,人们经常在与算法建议的比较中,过高估计自己的能力,认为自己与其他人的决策比算法决策更公平、更可靠。另一方面,人类认知在很大程度上依赖于直觉,而不是对信息的全面分析,这与算法决策依赖于数据和信息有着本质性区别。特别是在高度专业化领域,直觉的有效性通常被夸大,这使得专业人员比社会公众更相信自己的直觉判断,导致他们对算法决策的不信任。

其三,人们通常认为人类处理问题的模式更为灵活、更人性化,而算法处理模式更为机械化、无情感性。在很多人看来,算法只是一种工具,在分析、处理数据信息方面可以发挥辅助性作用,但不能处理个别化的特殊情况。有学者通过对228名成年人关于管理决策方面的网络调研表明,当面对像工作分配、时间安排等机械性的工作时,人们认为算法决策和人类决策是同样公平和可信的,但当面对招聘员工、工作评价等更人性化的工作时,算法决策被认为比人类决策更不公平、更不可靠,而且容易引发更多的负面情绪。这是由于人们通常认为算法缺乏直觉和主观判断能力,使其判断的公平性和可度信降低。

人是情感动物,情感在人类决策中扮演着重要角色。人们通常认为算法是无情感的,缺乏人类拥有的灵活应变等能力,但它对偏向于客观事务方面的预测与推荐更为可靠。通过大量的网络调研表明,当涉及某些主观性事务(比如约会建议)时,人们更愿意听取人类的建议,但涉及客观性事务(如经济方面的建议)时,人们更倾向于接受算法的建议。即使认识到算法表现得比人类更加优越——这也确实会影响人们采用算法的意愿,人们在主观性事务方面仍然倾向于采纳人类的建议。但是,当人们认为算法拥有与人类类似的高级情感时,这种看法会强烈地影响其对算法的接受度。

:自主性是一个内涵复杂的概念,从个人的角度看,自主性一般指个体的行动与抉择都是由自己所发起和控制的。虽然外界的帮助与个人自主性并不必然矛盾,但外界的涉入越少,个人的自我控制感通常就越强。即使在拥有自动化辅助工具的条件下,人类仍然具有明显的自我控制与自力更生的意愿,甚至不少人觉得自力更生是一种道德义务。心理学实验研究表明,即使人们在自力更生的情况下会减少利益的获取,即使自动化的辅助工具更少出错,不少人仍然会坚持自己的选择,表现出明显的保持个人控制的意愿。

如果人们对算法的工作机制不太了解,也不能与其有某些形式的友好互动,而必须直接接受算法的建议,这显然会降低人们的控制感,从而产生厌恶算法现象。但是,如果人们对算法的运行有一定程度的操控感,厌恶算法的现象会明显减少。狄伏斯特等人的研究表明,如果可以修改那些被认为是不完美的算法的预测结果,即使修改程度受到严格限制,人们对预测过程会感到更加满意,也更愿意相信算法是优越的。类似的研究亦表明,只要能够提供用户与算法的互动机会,使其能够调整算法的决策过程与信息表述形式等方面的内容,即使对算法本身的运作与信息处理模式不作任何变化,也会使人们更加信任算法。

:人类总是带着某种预期与算法进行互动,这种预期可能和之前与算法互动的经验有关,也可能来自朋友甚至媒体。这种预期起着范式的作用,它引导人们认知并回应算法给出的建议,并对人们使用算法的方式产生影响。违背预期解释在人机互动的负面效应解释中较为常见,比如不少学者亦从这个角度解释所谓的 “恐怖谷效应” 。

与违背预期解释进路类似的是任务不匹配解释。罗文斯(Ethan Lowens)认为,在很多情况下算法比人类精确,但人们仍然会出现厌恶算法的现象,这并不是因为算法偶尔出现的不精确现象(不精确解释),也不是因为人们无法理解算法(困惑解释),而是由于人类预期完成的任务与算法实际进行的任务之间不匹配导致的。比如,某人A 需要选择人类或算法去完成任务X,任务X 通常是由人类完成的,预测Y 是任务X 的必要条件,A 知道算法在预测Y 方面确实是比人类更精确,而且也能够理解算法的运作机制,但任务X 的内容比预测Y 要丰富得多,因为A 选择人类来完成任务A 是理性的。也就是说,人类的许多任务通常比交给算法完成的任务更加复杂,对这种复杂性认识不足就可能产生厌恶算法现象。

:主要在于算法的不可解释性、不透明性、精确性不足,等等。众所周知,人的本质在于其社会性,人与人之间在社交场合中进行互动交流的各种细节,人们大都可以很好地理解。但是,社会大众与算法的密切互动历史很短,即使从个人电脑的普及开始算起,其历史也不过短短的几十年,特别是人工智能时代算法的不透明性、不可解释性,更是强化了人与算法之间的距离感。尽管推荐算法的性能优越于人类(包括陌生人、朋友与家人),但人们仍然不愿意依靠推荐系统。其中的一个重要原因在于,相对于来自算法的推荐,人们更易于理解来自人类的推荐。但是,当人们了解了算法的工作机制之后,对推荐系统的反感就会明显减轻。关于算法透明性与可解释性的重要意义,国内外学术界已给予高度关注,我们相信算法本身的这些局限性会逐渐得到克服或改进。

另外,缺少与算法互动的丰富经验,相应的培训与指导不够,也被认为是引发厌恶算法现象的重要原因。当然,导致厌恶算法现象产生的原因可能并非某种单一的因素,很可能是多种因素的综合作用。

二、欣赏算法现象及其产生原因

20 世纪80 年代以来,随着专家系统的广泛应用,学者们也注重研究公众对专家系统的认知态度与使用情况。研究表明,使用者接受专家系统的建议并不总是基于他们对相关建议的细致考量。相反,他们拥有的关于计算机建议的某些信念(比如认为计算机是客观的、理性的、公正的),会影响其对专家系统建议的评价,并说服他们接受专家系统的建议。如果人类与专家系统给出的是同样的论证模式,人们认为专家系统是更客观、更理性的。这些信念使得部分人对专家系统很信任,很少认真研究专家系统建议的合理性与科学性,甚至有时会接受它的错误建议。

进入21 世纪之后,随着互联网搜索引擎算法的发展与成熟,人们获取海量信息变得易如反掌。人们不再需要费尽力气去查找各种信息,包括在遇到一些困难问题时,首先想到的就是求助于计算机,通过搜索工具去寻找问题答案。即使是需要某些曾经存储在大脑中的信息,人们通常也不努力通过回忆的方式来获取。因此,互联网已经成为人类外在于人脑的首要信息存储方式。目前人们对通过互联网获取信息的高度依赖性,在一定程度上也可被看作对搜索算法的依赖与信任。

对于作为非专业人士的普通公众而言,人们更愿意接受来自算法而不是其他人的建议,洛格(Jennifer Logg)等人将这种现象称为 “欣赏算法” (algorithm appreciation)。洛格等人认为,人们对算法的态度,既与算法的精确性相关,也与应用的领域关系密切。对那些与个人喜好相关的问题,人们确实更乐于接受密友的建议,但在那些对精确性有明确标准的领域,比如投资决策、体育比赛预测等,人们更乐于接受算法给予的建议。而且,相对普通公众来说,专业人员较为轻视算法的建议,由此导致他们抉择的精确性反而不如普通公众。欣赏算法现象与年龄无关,而且欣赏算法的具体表现并不统一,因时因人而异。当算法建议与人们自己的判断不相一致时,欣赏算法的程度会有所减弱,但并不会消失。

欣赏算法与信任算法的现象在部分领域得到了一定程度的验证。比如在新闻选择方面的验证:通过对来自26 个国家的5 万多人的调研表明,对于来自算法和相关工作人员的新闻推荐,人们整体上更乐于接受算法推荐的新闻。而且,即使这些推荐是源自专家而非外行人员,人们仍然坚持选择算法的推荐。另外,年龄、对隐私的关注、是否付费、是否可以通过移动设备获取新闻等因素,对于个人选择新闻的获取方式都有较为明显的影响。又如,有学者通过对435 名中学教师的在线调研表明,对于评价学生表现,大多数教师倾向于寻求并遵循来自人类而非专家模型的建议。但是,当面对难度较大的任务时,教师们认为算法的准确性高于人类预测者。

总的来看,至少有以下一些因素使得人们欣赏算法的现象产生。比如,人们通常对天气预报比较关心,由于目前天气预报精确度较高,很多人基于以往的经验,都愿意选择相信天气预报。即使偶尔预报出了差错,人们一般也不会选择放弃信任天气预报。另外,研究表明,通过共享其他人之前运用过某种算法的情况,会减轻人们接受该算法的认知负担,并显著提高其对算法的接受度。就像人们购物或选择餐馆前喜欢查看用户评价一样,对于那些用户评价较好的算法,自然也易于得到更多人的信任与接受。

前文提及的厌恶算法现象在医学领域也普遍存在,这可能是由于人们倾向于认为,以算法为基础的人工智能系统会以共同的方式对待病人,而忽视病人的个人特征,即所谓的 “独特性忽视” ( u niqueness neglect)。但是,如果人工智能系统能够针对每位病人的特点提供个性化的服务,那么人们在医生与人工智能系统之间的选择意愿则平分秋色。在各种算法当中,购物网站的推荐算法具有明显的个性化特征。笔者本人在网上购买某些书籍之后,经常会被购物网站推荐的书籍所吸引,同时也确实发现了某些与已购图书内容相关的书籍。据笔者私下了解,这确实是一种较为普遍的现象。

大多数人在面对某些专业性问题(比如理财)时,虽然对自己的目的很清楚,但并不知道应该如何正确处理,此即 “意图—行动鸿沟(” i n tention-action gap)。如果去咨询人类专家,需要支付一定的费用,而且还有诸多不便,比如时间方面的限制。但是,具备不同功能的算法(程序或应用软件)在互联网上却是随时可得,而且大多是免费的,即使收费,通常价格并不高。也就是说,算法相对于人类专家而言,确实拥有明显的低成本、易获取等优势。

诺贝尔经济学奖得主卡内曼(Daniel Kahneman)等人认为,人类不是可靠的决策者,人类的判断很容易受到各种无关因素的影响,比如当下的心情、上次就餐时间、天气等,他们称之为干扰判断的机会变量。干扰因素与过度自信、无根据的乐观主义等认知偏见不同,它们比偏见更普遍,隐藏得更深,不过干扰因素比偏见更容易量化。这些干扰因素产生的影响比人们通常想象的程度更大,而消除这些干扰因素最彻底的解决方式就是用算法取代人类的判断。

伊达尔戈(Cesar Hidalgo)把一个人的神经系统能够积累的最大信息量定义为 “人比” (personbyte)。如果我们假设一个人只能积累一个人比的信息量,那么某个人要获得更多的信息,就必须依靠其他人员的帮助。也就是说,人类生物学意义上的知识与信息积累能力是有限的,对于目前人类面对的海量数据显然是无能为力的。有学者认为,在算法强大的力量下,赛博世界中产生的海量数据和信息不再是一团乱麻,算法可以轻易找到隐藏在 “乱麻” 中的 “线头” ,让这些数据和信息变得有秩序。正因为算法拥有的强大能力,有的咨询公司向企业管理人员大力推荐算法,鼓励他们积极采用基于算法的决策,帮助他们尽可能避免与克服厌恶算法现象。

正是由于算法的强大功能,它在各类组织、机构、商业与政府部门的决策中发挥着关键性的作用,主导着人们处理事务的方式,因而具有强大的社会影响力,甚至已成为一种社会权力。在这样的社会背景中,我们已经不可能无视算法的普遍存在,而是应该培育恰当的算法信任,客观认识算法的优越性与不足之处,理性地与算法系统互动。

三、算法信任的建构途径

数字鸿沟(digital divide)通常指不同家庭、群体对信息技术的拥有与使用情况方面存在的差异。研究表明,数字鸿沟不仅与性别、年龄、收入、学历等常见的社会—经济标准有关,还与心理因素有关,厌恶算法与欣赏算法的研究进一步证明了这一点。在日益深度科技化的智能社会中,以算法为基础的人工智能技术必将在人类生活中扮演更加重要的角色。一方面,我们需要形成对算法的理性认知,不迷信算法,避免过分信任算法而产生所谓的自动化偏见(automation bias)。另一方面,我们也不能排斥算法,需要理性接纳算法,避免智能时代的数字鸿沟。另外,对于人工智能伦理研究而言,算法信任具有至关重要的基础性意义。人工智能伦理研究的一个重要方向就是使智能产品具有一定的伦理判断与行为能力,但已有研究表明,人们可能并不希望智能产品作出某些道德决策,因此建构算法信任是人工智能伦理研究必须面对的一项基本任务。根据目前学术界研究成果,结合前述厌恶算法与欣赏算法现象及其原因分析,我们至少可以从技术、用户与人机互动三个维度着手建构合理的算法信任,使算法更好地为人类服务。

:科技工作者应该在充分了解并把握用户心理与预期等情况下,开发 “以人为本” 的算法,提升算法透明性、精确性与人性化,避免 “杀熟” 现象等负面影响。就目前的实证研究成果而言,至少可以从以下几个方面着手。

第一,进一步提高算法的精确度与运行速度。虽然目前许多算法已经颇为准确,但有的情况下仍然会出现明显的瑕疵,进一步提高算法的精确性,显然有助于增加用户的信任度。另外,加快算法运行的速度亦至关重要。人们通常认为,预测任务对人类而言是困难的,因而需要费时费力,而对于算法来说则是简单的,算法所耗费的时间与其预测质量无关。因此,人类思考时间越长,得出的结果可能越可靠。但是,如果算法预测的反应越慢,人们就认为算法预测结果越不准确,也就不愿意信赖它们。

第二,切实提高算法透明度。提高算法透明度毫无疑问有助于增加算法信任。而且,算法不透明不但可能导致厌恶算法,还可能导致用户出现算法焦虑(algorithmic anxiety)现象。通过对美国短租平台爱彼迎(Airbnb)房东的调研表明,房东对平台的评价算法工作机制不太了解,只知道一部分因素的重要性,对其他方面的重要程度不能确定,因而认为评价算法不透明、不可控,有明显的不确定性,由此产生算法焦虑现象。

非专业人员不可能弄懂算法的具体工作机制,不过还是有若干具体途径可以提高用户能够感受到的算法透明度。比如,提高算法结果的可预测性、可解释性,特别是当出现与用户预期相反的结果,算法应该给出详尽的说明;算法决策的具体因素与指标,应该向用户进行详细说明;算法所采集、存储、使用与删除数据的情况,特别是可能涉及个人隐私的数据,必须征得用户知情同意,并切实保护用户隐私;当用户是与以算法为基础的工作系统而不是与人类工作人员进行互动时,必须提前明确告知,等等。

第三,科技工作者要充分把握用户的预期,客观介绍算法功能,同时对算法擅长与否的领域要有明确的认识与区分。前述关于厌恶算法的论述提及,违背预期是产生厌恶算法现象的原因之一。因此,科技工作者需要将用户的预期与算法的功能协调一致,特别是当算法的运行有所调整时,一定要及时告知用户。另外,算法是对现实世界的简化与模拟,现实世界永远比算法所描述或处理的更为复杂。因此,科技工作者在一些规则比较明确、理论基础牢固的领域,可以充分发挥算法的威力,阿尔法围棋就是其中的典型代表。但是,对于算法可能不能灵活处理的医学、人文、社会科学等领域,除了特定问题之外,对于算法的大范围推广应用就更应该谨慎对待。如果在某些不太适当的领域推广不成熟的算法,只会加剧厌恶算法现象。

第四,尽可能减少或避免算法歧视、偏见、 “杀熟” 等负面效应。虽然算法偏见在一定程度上是无法根本避免的,但尽量减轻相应影响是可能的,也是必须的。对此,学术界已有大量的讨论,在此不再赘述。

:对用户而言,需要通过提升算法意识、培育算法想象、丰富算法经验、加强算法培训等途径来培育算法理性。

第一,提升用户的算法意识。虽然算法无处不在,但人们是否对算法的存在拥有自觉意识则是另一回事。通过对40 名脸书(Facebook)用户的调研表明,有超过一半(62.5%)的用户根本就没有意识到脸书关于新闻推送算法的存在。在认识到算法的存在之后,他们刚开始的反应是惊讶与恼火。不过,在2—6 个月之后,大家对脸书仍然保持类似水平的满意度。最重要的是,算法意识使得用户更积极主动地调整相关设置,增强了对系统的控制感。虽然我国数字技术普及率较高,但公众算法意识并不算高。比如,我们经常可以在新闻报道里看到,有人通过某种搜索引擎得到某些方面的推荐信息,结果在经历不甚愉快的事件后才发现靠前的推荐并不是最优的。当然,随着各种监管制度与措施的完善,这类情况已经明显下降,但提升公众的算法意识的确有助于减少上当受骗的现象。由于算法的不可见性,为了提升算法意识,我们需要关注算法界面的研究,分析用户在何时、何地以及如何意识到算法的存在,这些知觉又如何转译为对算法的认知。

第二,培育合理的算法想象。为了探究人们在哪些情况与环境中会意识到算法的存在,算法意识又会在何种程度上影响人们对各类平台的应用,布赫(Taina Bucher )提出了 “算法想象” (algorithmic imaginary)概念,用以分析算法的个人体验与日常影响,说明算法如何拥有影响与被影响的能力。算法想象主要指人们思考算法是什么、算法应该是什么,以及它们如何发挥作用等问题的方式。算法想象不只是产生不同的情绪与感知,而且它们对塑造算法也会产生关键性作用。比如,脸书的用户在认识到算法的选择、推荐等工作模式之后,会采用相应的策略,使自己的发帖更容易被算法识别并推荐,包括在特定的时间发帖、以某种方式组织内容、在内容中回避或包含某些关键词等,而某些策略的成功或失败会明显改变人们对算法的思考、谈论与感受方式,由此产生各种不同的情绪;为了抵制算法的控制,有些用户采取相反的策略,故意采取某些算法无法预测的方式与之进行互动,或者提供某些虚假的数据,这些反馈也成为塑造算法系统的重要组成部分。可见,对社会公众来说,算法不是抽象的计算过程,而是拥有某种调整人们生活与思维方式的力量。我们应该让公众全面了解算法的大致工作原理与模式,使其明白算法的优点与可能的不足,从而使公众对算法拥有理性的认知,保持较为合理的算法想象,进而在与算法系统互动的过程中既充分利用算法的优点为自己服务,也尽量规避或减少因较多错误甚至虚假信息而导致的算法功能失灵或弱化。

第三,丰富算法经验。算法想象概念的实质就是强调要关注人们对算法的认知,以及这种认知对算法系统与用户之间的相互影响。阿尔瓦拉多(Oscar Alvarado)等人更加明确地提出了 “算法经验” (algorithmic experience)的概念,倡导较为全面地研究用户对算法的认知,分析算法的哪些特征与功能会对用户产生重要影响,并根据用户的体验来改进算法设计,进而使用户产生更好的算法体验。我们认为,布赫主张的算法想象概念主要关注用户对算法的主观认知,特别是负面的感受,而算法经验强调我们应该研究用户对算法的了解如何影响他们与算法系统的互动,以及用户对算法的各种态度,并注重对算法进行改进,因此,强调算法经验比单纯关注算法想象应该更为全面与合理。只有通过对算法经验进行深入细致的实证研究,我们才有可能真正设计出 “以人为本” 的算法系统,同时也为用户提供概念工具,用以全面、合理地理解算法及其运作,从而减少厌恶算法现象,提升欣赏算法的比例。

第四,加强教育培训工作。科技工作者需要加大对算法的科普,使社会公众更加全面地了解算法,特别是算法的学习功能、个性化服务的可能性与实现途径,等等。公众需要积极主动地学习相关知识,接受某些教育培训,进而加深对算法的理解与认知,更加理性地与算法系统互动。

:我们需要进一步加强人机互动的经验研究,强调人机互补,给予用户一定的自主性,同时加强技术接受研究。

首先,通过人机互动研究探索人机互动特征与信任模式。前文提及的丰富算法经验,其实质也是强调人机互动研究。前文的算法经验主要是针对用户而言的,而此处的人机互动研究更多地强调科技工作者的责任,也就是深入研究人机互动的特征,尽可能满足用户的心理预期。首先,需要深入了解算法认知的个体差异与信任模式。大量的经验研究表明,个体在与算法系统互动的过程中,文化、年龄、性别、性格等各种个体特征都与信任程度有一定关联,虽然相关的具体机制还不清楚,但大多数经验研究已经证明了这一点,而且这些个体特征大多(除了性别)还会随着时间的推移而产生变化。同时,用户与算法系统互动过程中的信任大致可以分为倾向性信任(dispositional trust)、情境信任(situational trust)与习得信任(learned turst)等类型。倾向性信任指个体对算法的总体性信任取向,与具体情境与特定系统无关,文化、年龄、性别与性格特征等因素主要影响该类型信任。随各种不同情境(包括外部环境与个体内在特点)而变化的信任即情境信任。习得信任即用户通过当前或之前与算法系统的互动积累的经验而作出的对算法的判断。如前所述,习得信任既与用户的知识背景相关,也与算法系统的表现情况关系密切。当然,这三种信任虽然有一定区别,但也相互关联,共同发挥作用。我们需要在了解前两种信任类型的基础上,重点培育用户的习得信任。

其次,增强人类在人机互动过程中的自主性与控制感。已有的实证研究表明,当用户可以修改算法的预测结果时,他们更倾向于选择算法,即使发现算法本身并不完美也愿意使用算法。尽管人们能够修改的方面受到严格限制,但人们还是愿意选择能够修改的模式。也就是说,用户对修改算法的偏好,表明他们希望能够对算法预测的结果进行某种程度的控制,但并不是希望有很大的控制权,只是在与算法互动的过程中保持一定的自主性,这种自主性使用户对算法预测结果感到更满意,更愿意相信算法的优越性。与此类似的研究亦表明,如果能够把用户自己的观点融入算法之中,可以使用户更乐于接受与遵循算法的建议。

在某些特殊情况下,人机互动过程中的自主性与控制力尤为重要。比如,心理学家弥尔(Paul Meehl)提出的 “脚骨折” 案例就是一种典型情况。如果我们观察到某人每周二晚上都会去看电影,于是在我们的统计模型中,可以得出 “周二晚上某人会去看电影” 的推断。可是,当我们某个周二早上看到他脚骨折了,我们一般不会再认为他当天会去看电影,但统计模型仍然会得出之前的结论。尽管某人出现脚骨折的概率很低,但这个案例提醒我们,任何算法都不可能穷尽所有的可能性,对于算法给出的明显违背常识的预测,我们应该保持高度的警惕,并根据具体的情况对其进行否决。

再次,加强技术接受研究。我们既需要引导新的用户接受算法,同时也必须重视用户使用算法后是否愿意继续长期使用。考虑到智能产品目前已有较为广泛的应用,因此后者更值得我们关注。针对用户对信息系统的使用与接受的行为表现,巴特查里亚(Anol Bhattacherjee)进一步完善了所谓的 “预期—确认理论” (expectation-confirmation theory)。该理论认为,用户是否愿意继续使用某种信息系统,是由他们对使用情况以及继续使用中的感知有用性(perceived usefulness)两方面的满意度所决定的,同时,用户的满意度又受到来自之前使用经验以及感知有用性的预期确认程度的影响。我们需要深入探讨用户首次接受信息技术之后的心理动机,因为这些动机可能影响用户是否继续使用该技术的抉择。由于用户在接受技术之前的态度主要受到大众媒体、同事朋友等二手信息的影响,因此可能并不符合实际。但是,用户使用技术之后的满意度是基于直接体验,因此基本上是准确的。如果我们对用户的预期与确认、满意度与情感意图等复杂的心理动机形成比较准确的理解,显然有利于更好地理解用户接受技术的具体机制。

巴特查里亚等人的技术接受模型被称为 “后接受模型” ( p ost-acceptance model)。一些学者通过更加细致的经验研究,探讨用户继续使用信息技术过程中的演变情况,或者融入某些互补性的理论观点,使该技术接受模型更加精细化。有学者关注技术与具体工作之间的内在关系,认为具体工作与技术支持的符合程度,会影响工作业绩与技术使用情况,即 “任务—技术匹配理论(” t a sk-technology fit theory)。根据这一理论,我们可以从任务特征、技术特征、任务—技术匹配、业绩影响与使用情况等五个方面着手建构技术接受模型。在具体的实证研究中,既可以围绕技术为中心展开,也可以以用户为中心进行,这两条研究进路可以相互补充、并行不悖。总的来说,技术接受是一个动态发展过程,为了更好地培育用户的欣赏算法认知,我们不仅需要关注用户最初使用算法系统的感受,还必须重视研究用户继续使用的意愿及其影响因素。

四、结语

算法作为人工智能科技的一种基本要素,在智能社会中发挥着日益重要的作用。有人可能出于各种不同的原因排斥算法,不愿意接受算法推荐与算法决策,同时也有人偏向于欣赏与信任算法。对于相同的算法应用领域,不同的用户可能产生完全相反的态度。用户对算法的不同认知情况充分说明,要使智能产品得到社会成员的广泛接受,我们必须重视以用户为中心的算法研究,而不是就算法本身研究算法。如何使公众理性地认知算法,充分认识算法的优势与不足,更为合理地应用算法进行理性决策,避免出现过度信任与盲目排斥算法等不当倾向,应该是与提高算法的技术水平同样重要的任务。

猜你喜欢

信任算法人类
人类能否一觉到未来?
人类第一杀手
Travellng thg World Full—time for Rree
谁变成了人类?
学习算法的“三种境界”
算法框图的补全
算法初步知识盘点
嘤嘤嘤,人与人的信任在哪里……
人类正在消灭自然
信任