喻纯:让盲人拥抱更聪明的人机交互
2018-12-06
文/本刊记者 王 郁
每天,我们拿出手机,轻击指纹解锁,滑动屏幕找到需要的APP点开。触屏智能手机为社会打开了新世界的大门,事实上,社会交往更多地始于人机交互——我们首先与手机对话。人机交互正是这样一门学问,人与计算机之间使用某种对话语言,以一定的交互方式,旨在完成确定任务的人与计算机之间的信息交换过程。
在飞速发展的信息时代,手机已经成为盲人与世界沟通的重要工具。盲人用手指触摸屏幕时,读屏软件能够把触摸到的内容转化为语音读出来。在中国,预估有600万盲人正在以这种方式使用智能手机。然而,如果说要与明眼人相比,盲人使用手机还有很多不方便的地方。其中一个问题就是单手交互。
“我们为什么会多花上几千块钱,去买苹果手机?”清华大学副研究员喻纯拿起几台手机反复滑动、点击触摸屏,“光从硬件上看区别已经不大了,我们买的其实就是一种交互体验,滑动是不是流畅、点击是不是灵敏、是不是频繁产生误触。”
手机和手机之间的差距,就是在这些人机对话的细节中体现。创造更聪明的人机交互界面,便是喻纯和同事们的主要工作。
“盲人应该同等地参与和体验到设计和科技发展带来的便利。”这是喻纯的期盼。
为此,清华大学计算机系人机交互课题组设计了一套用耳朵与屏幕接触的新颖交互方式,并开发了一种基于电容屏图像分析的智能算法,使得盲人也能轻松单手使用手机。以打电话的姿势使用手机,语音反馈可以从听筒播放,也解决了隐私性的问题。这项技术,虽然是为盲人开发,但也具有通用性,明眼人在需要单手交互时,同样可以使用。
那么,到底如何用耳朵来与手机交互呢?
记者看到,一名研究生正在测试专门为盲人开发的智能输入法。目前,苹果手机和安卓手机分别配有“voiceover”和“talkback”功能,帮助盲人使用触屏手机。单击时手机会朗读被点击的字母,双击同一位置就能选中这一字母;如果字母不正确,只能通过左右滑动位置再次单击屏幕,尝试选中正确的字母。研究生闭上双眼模拟盲人输入了“confirm”这个单词,花了差不多1分钟时间。
“全世界盲人和弱视人群数量大约有3亿,和美国的人口一样多。”喻纯告诉,“这种输入法对他们而言太不方便了!”为此,研究人员开展了数量庞大的盲人用户实验,采集代表他们点击屏幕习惯的数据,并预测他们想要输入的词。
这名研究生再次闭上双眼,“X-I-N-F-I-T-B”,他花了10几秒钟时间熟练地输入这几个字母。令人惊讶的是,屏幕上显示出的单词却完全正确的“confirm”。他们相信,具有新算法的输入法能提高盲人输入速度。
类似的智能算法也将应用在平板电脑盲打的输入法开发中。喻纯说:“平板电脑的人机交互界面是玻璃板,这让依靠触觉反馈和肌肉记忆实现的盲打不容易实现。”一种更聪明的算法在用户即使凭感觉打字时,也能猜到用户所想。
当然,人机交互的未来场景远不止触屏手机的输入法,人们穿戴上设备后可以握手、可以拥抱,有充分的沉浸感,就像真的一样,是下一代人机交互的目标。
目前,该实验室的科研人员已经迈出了重要一步。他们正在开发利用增强现实的眼镜实现二人下棋情景。“二人各有一个棋盘,各执半幅棋子,自己下自己的棋,从眼镜中能真切的看到3D画面,下棋的人就坐在面前。”喻纯描述着这即将成为现实的画面。
“科技应以人为本,盲人应该和明眼人一样拥抱同等自然的交互体验。通过设计和开发这样一种新颖的耳朵交互,我们不仅希望能够改善盲人朋友在手机单手交互上的无障碍体验,更希望能够引起更多人对于信息无障碍的关注,一起推进更加平等的社会环境建设。”喻纯说,在设计和开发的过程中,清华大学课题组的师生们接触到了大量的盲人朋友,他们积极乐观的精神令人感动。
“信息无障碍领域还存在很多根本性的问题亟待解决,如各类应用程序的无障碍开发意识不足,导致信息读取不出来、交互无法完成等问题。这些问题都应该得到重视。”喻纯如是说。