聊聊AI“精推”的伦理边界
2019-07-26梁晓轩
梁晓轩
时至今日,被大数据“杀熟”似乎已经是差旅族必备的人生体验,与“今日头条式精准推送你关心的”不同,此乃“精准推送你需要的——最贵的价格”。大数据“杀熟”常常被视为AI与大数据相结合的反面教材,其弊端主要包括价格欺诈、过度捕获隐私与排他性歧视。
价格欺诈
每每饭点,居民区附近的生煎馒头店往往生意红火,笔者经常随意找一家馒头店寻一两生煎权当早点。久而久之,满足口腹之欲外,亦有所观察,譬如这食客的类别,有精气内敛的白领、有满脸稚气的小学生,还有步履蹒跚的老妪。这一份生煎,无论男女老幼、无论贫富贵贱,童叟无欺6元钱。自己心里常常想,其实这价格比起写字楼附近的早餐店可谓便宜了近一半,即使涨一点也不贵啊。可是精明的老板们为什么不提价呢?从经济学上来讲,老板们根据供给和需求曲线来定价——通俗而言,就是店老板们要找出赚钱总量最多的那个价格。因此,面馆老板们考虑定价的核心是对价格承受能力较弱的大多数,即单位时间的盈利总额。假设单位成本3元,卖出一份10元贵的抵不上卖出三份6元便宜的(6×3-3×3>10×1-3×1)。
经济学上,把消费者能够负担但是又不用实际付出的X元钱,称作“消费者剩余”。这部分消费者愿意付却实际省下来的钱,商人当然是想赚的,而且有非常简单的方法:相同的商品,看人定价,一人一价(即“价格歧视”)。比如同一款商品,对土豪们售价50元一份;上班白领,15元一份;金发碧眼的6美元一份……
理论上虽然清晰简单,但在众多线下消费体验中,老板们并没有搞“价格歧视”,这可并非出于老板的良心发现,主要是依据客观规律和市场竞争的约束。
第一,搞“价格歧视”的基础,必须以完全掌握受众(食客)的支付意愿和支付能力为前提,这就有“信息成本”。食客的支付能力,或许通过外貌着装可判断一二,但不把握是否看走眼。那又该怎么识别支付意愿呢?这完全取决于食客的心理甚至店方与食客之间的心理博弈,这难度就太大了。所以说“信息成本”限制了“价格歧视”的运用。
第二,“价格歧视”需要相对“封闭”的运用环境。我们仍以餐馆为例,饭点人潮涌动,同样的商品或服务,以不同的价格呈现,旁边排队的食客(潜在客户)会直接感受到老板的伎俩,进而留下较坏的印象,对经营的潜在伤害往往更大。从这个角度,直面客户尤其是开放环境下同时面对多个客户的行业,实施“价格歧视”的难度颇大。但互联网的发展为“价格歧视”提供了空前的机会。假定仍然是餐饮领域,放到外卖或者网络订单上,就可以轻松实现“差别待遇”,客户不易获知自己被宰了,或者即使获知也无可奈何。
第三,“价格歧视”需要具有垄断市场的能力,这是从行业的角度来讲的。如果上海生煎馒头都是同一个老板,你想吃这口都得上他家的馆子,那老板给你来个一人一价,你也只能接受。当然,更多的是转个街角就还有一家同类的某某馆,“价格歧视”也搞不成。
第四,搞“价格歧视”需要消费者对产品服务几乎没有可替代的选择,这主要是从商品的独特性来讲。早点当中,除了生煎馒头,还有大饼油条、油泼面、胡辣汤、煎饼果子等,那么从可替代性这个角度,“价格歧视”也无从落脚。
所以,是否具有可替代性、信息成本、垄断市场,约束了老板们的行为,产生了消费者剩余,增加了一部分消费者的消费福利。但是,“大数据”与AI相结合,正在以网络科技的力量,将上述三者化难为易,悄无声息地侵蚀“消费者剩余”。
过度捕获隐私
与“价格歧视”俱来的,便是过度捕获消费者(使用者)隐私——这几乎是老板们实施“价格歧视”与“排他性歧视”的必要前提,尽管这些数据的收集、利用、分析环节很可能都是第三方提供的。我们在使用某些APP时,尤其是面对某些几乎绕不开的领域上,不得不做出权限开放,尤其是在互联网科技日趋“寡头化”的今天,多多少少地,我们很难拒绝把自己的隐私贡献给网络另一端的“AI”。对于普通消费者,并无从知晓个人信息到底被拿去干吗了,就好像进入暗箱一样,其中的道德风险很大。
排他性歧视
和价格歧视类似,却又更彻底,即对消费者选择性地提供商品或服务,这一点在保险领域十分普遍。保险公司通过对一种或一类疾病的潜在指标进行分析,譬如尿酸、血脂等指标,尽管潜在的被保险人仅仅是几个指标偏高,未有医生确诊患病、没有治疗必要或者进一步复查的必要,保险公司可能仍然将此列为“保障内容除外”“单独上涨保费”甚至直接拒保,更有甚者,对那些仍然健康的、具有容易发生疾病尤其是癌症的基因携带者进行拒保。这或可称之为“基因歧视”,违背保险之设立初衷,且与基本公平之商业伦理相悖。
从以上三个层面分析,其中“价格歧视”与排他性歧视归根到底都是违背了公平原则,AI大數据的伦理拷问似乎已经明确,我们可以引申出其两个伦理边界。
第一,大数据的分析、应用是否能够符合基本的公平。
从消费者的角度考虑,公平无非是是否能以相同的对价获得同样质量的商品或服务,相应的,其享有的权利不被扣减。媒体上常常报道的,诸如“XC”订机票酒店对常用户显示价格较高,对普通会员则报价较低,就是典型的“价格歧视”,犹如某“ZFB”通过数据分析对用户的需求和能力进行精准画像,决定是否对客户开放信用性质的小额贷款,但其标准往往是不公开的,这就是典型的排他性歧视。
在科学技术日新月异的今天,新技术往往是通过不断提高商品服务质量,精准锚定客户,更好地满足消费者需求这个角度去创造财富的。但利用大数据“杀熟”,既没有提升商品服务的质量,反而“暗戳戳”地打击“刚需”模式,着实违背了科技造福人类的宗旨,乃至与平等的基本理念背道而驰,甚至不符合基本的公平。
第二,大数据的分析、应用是否能够保证安全性。
大数据“杀熟”,前提就是商家完全掌握消费者的支付意愿和支付能力。所谓完全究竟需要到什么程度呢,似乎越完整的个人信息,乃至社交APP的头像等基本信息或动态信息的获取,就越是对整个数据的分析处理更加有利。通过智能分析,可以如靶向药一般直击用户需求,但这种对数据(个人信息)采集的方式或者采集的覆盖面未必合理。商家为了更好地营销,往往尽可能要求用户共享更多的个人信息——而这未必是必需的。另一方面,对于已经收集过的数据,如果脱敏不当,很可能造成隐私泄露的重大事件,尤其是通过网络购买特殊商品的消费者,不排除造成恶劣的后果。
基于这两点,我们进行分析,大数据AI是应当存在一定的伦理边界的,最起码地,应当以公平和安全为底线。值得一提的是,2019年4月8日,欧盟抢先发布AI道德准则,其内涵是十分丰富的,具体包括7个条件:1.人类的力量和监督:人工智能不能侵犯人类的自主性。人们不应该被AI系统操纵或胁迫,而应该能够干预或监督软件做出的每一个决定。2.技术的健全性和安全性:人工智能应该安全且准确。它不应该易于受到外部攻击的影响,且应该相当可靠。3.隐私和数据管理:人工智能系统收集的个人数据应该是安全的、私有的。它不应该让任何人接触,也不应该轻易被盗。4.透明性:用于创建人工智能系统的数据和算法应该是可访问的,软件所做的决定应能被人类理解和跟踪。5.多样性、非歧视和公平性:人工智能提供的服务应面向所有人,无论年龄、性别、种族或其他特征。同样,系统不应该在这些方面存在偏见。6.环境和社会福祉:人工智能系统应该是可持续的(即它们应该对生态负责)并“促进积极的社会变革”。7.问责制——人工智能系统应该是可审计的,并被纳入企业可举报范畴,以便受到现有规则的保护……
大数据“杀熟”或许只是科技发展一定阶段的副产品。但不管最终如何定性、科技如何发展,一个安全、公平的市场环境及其背后蕴含的市场伦理,都应该是一个成熟的商业社会孜孜以求的。