不通人性的机器,可能毁掉人们的生活
2017-02-09
方可成
一架满载乘客的飞机从纽约起飞后遭遇鸟群撞击,两台引擎全部失灵,英雄机长奇迹般地实现了水上安全迫降。这是去年底上映的电影《萨利机长》讲述的真实故事。不过,迫降成功只是故事的开始——其后,萨利机长接受了航空安全部门的轮番调查和盘问,他被质疑:为什么不返航拉瓜迪亚机场,而要冒险迫降?也许机长并不是英雄,而是拿全体乘客性命开玩笑的莽夫?
在听证会上,航空安全部门展示了模拟数据。在先进技术的支持下,机器完美地还原了当天飞机遭遇鸟群撞击之后的高度、速度、角度等数据,以及天气、风向等外部环境。模拟结果表明:这架飞机完全可以成功返航,在原机场着陆。
眼看萨利机长就要声名扫地,这时他指出了一个关键因素:机器可以完美地模拟客观数据,却没有考虑到,当时驾驶飞机的是活生生的人。人不可能像机器一样毫无感情地作出最理性的选择,而是需要时间进行反应、思考、判断。
果然,当机器模拟将人的反应时间考虑进去之后,飞机便无法再成功着陆机场,水上迫降成为唯一的选择。
在不通人性的机器面前,英雄机长的命运险些被毁掉。其实,这个世界上还有千千万万小人物,也因为机器不懂人性、不具备人文关怀,而生活在糟糕的处境之中。
这类小人物的最典型案例,就是美国不少快餐连锁和大型超市的工作人员。他们大多是按小时数拿薪水的合同工,收入本就微薄。近几年,企业大规模采用机器来进行排班,让他们受到进一步的剥削。
这种排班的核心是基于顾客流量安排上岗员工数。其实,超市和快餐店本来就会进行这种“科学排班”:周二上午人流少,少安排人上岗;周五晚上人流多,全员上岗。不过,新的数据技术让这种方法的复杂性达到了前所未有的程度:比如,下雨时,人们可能会更多走进咖啡店,所以这时要多安排人手;某个晚上附近的体育场有大型赛事,可能会给快餐店带来一大批深夜客流;甚至,根据社交媒体上提及某一产品的热度,来预测门店的人流……这一切都让人流预测和排班安排达到了前所未有的科学化程度,但它却给店里的打工者带来了灾难性的后果。
为什么会这样?首先,这种复杂的预测方式,往往需要利用非常新的数据(比如天气预测、社交媒体热度),因此很多时候只能提前一两天完成预测。这也就意味着,员工的排班表不是一个月前就安排好了,而是提前一两天才能得到,而且永远处于不可预测的变动之中——因为数据是在不断变动的。这也就意味着这些打工者永远处于不确定性之中,可能随时被叫去工作,无法掌控自己的时间,这对需要照顾家庭的人来说尤为不便。
其次,此前,超市和快餐店的打工者们还能享受一些间歇的清闲,不至于每一分钟都在高压之下。但是现在,拜算法所赐,他们基本上每一分钟都要处于紧绷的状态,因为机器算法的终极目标就是最大化每一位员工在岗时的工作投入。这对于企业盈利的目标而言自然是合理的,但它却没有考虑到员工作为活生生的人在这种制度下所受到的巨大压力。
此外,机器还会自动完成一些奇葩的排班方式:比如,晚上值最后一班岗,工作到11点关店,第二天一早又要上最早一班,凌晨4点就要起来去开店。这种情况一度非常普遍,以至于人们发明了一个词:clopening,也即关门(closing)和开门(opening)的合体。有这种排班方式,并不是因为机器要有意为难这些打工者,而是因为在机器的算法中,并没有“人类需要充足睡眠时间”这样的设定。不需要睡眠的机器,理所当然地认为人类也是一样的金刚不坏之身。
数学家Cathy O'Neil在去年出版的《数学杀伤性武器》一书中讲述了不通人性的机器剥削底层打工者的故事。她提醒我们:机器和算法的表现,最终体现的其实是制造机器、设计算法的人的意志。如果设计算法的人不考虑人性的因素,那么机器是不会自动考虑人性的。从这个意义上说,机器不通人性并不可怕,只要制造机器、设计算法的人多一些对人性的考虑和关怀,比如禁止连续排最晚班和最早班、要求提前一周定下排班表等,事情就不会变得那么糟糕,就像在萨利机长的听证中加入那关键性的35秒一样。
(作者为传播学博士候选人)