交通场景的沉浸式传播探究
2021-09-08徐瀚祺宫承波
徐瀚祺 宫承波
【摘要】以玻璃、透明面板等介质为代表的显示设备,是近年来交通领域的热门技术,同时智能化浪潮渗透到交通场景中,人与交通工具间的交互方式回归以人为本,新一代显示技术可在载具空间内建构虚拟信息与现实融合的场景。通过研究智能透明显示设备在未来交通场景中营造沉浸式体验的可能性,以期解决此类场景的伦理困境和对技术的展望。
【关键词】沉浸传播;智能座舱;具身交互;泛在媒介
一、交通场景中的透明显示技术
(一)车载平视显示技术的革新——AR-HUD(增强现实平视显示)
平视显示器(Head Up Display)最初应用于军用飞机,投射仪表信息至飞行员视野前方的透镜或头盔目镜上,提升态势感知能力,目前已应用于量产车,分为C-HUD(组合式)和W-HUD(风挡式),由于虚拟影像不完全遮挡现实外部场景,该系统能降低驾驶员的认知负荷,降低碰撞风险等。AR-HUD则是借助ADAS(高级辅助驾驶系统)的各类雷达、摄像头和定位系统等传感器感知、精确识别外部环境或物体,经处理、计算在挡风玻璃上投影并与现实互相“增强”,产生新的可视化环境。近年大陆集团、Wayray、松下等企业都已投入研发;在前装方面,大众、奔驰等车企已发布多款搭载AR-HUD的量产车,能在挡风玻璃上有较大的显示面积,如贴合路面的动效导航、在辅助驾驶状态下的交通标识、车道或前车识别的提示,都可融合于实景,结合车内联动的灯光和音效,向驾驶者实时传达直观丰富的、虚实结合的信息。
(二)公共交通场景中的“魔窗”智能显示技术
不同于需要额外的光学反射结构的HUD,透明OLED屏幕是一种自发光显示技术,是显示面板市场应对竞争的差异化突破,也是在多种透明屏幕技术中较为成熟的方案,已应用于智能透明电视和智能橱窗,原理是在透明基板上的像素阵列中设置非显示透光区域,提高透光率以达到“透明”效果。北京地铁6号线在列车中安装了“魔窗”系统,用55英寸的透明OLED屏取代车窗,通过动画显示列车位置、三维地图等信息。
二、交通场景中虚拟与现实的重叠:沉浸式传播
交通工具作为人与客观世界联系的媒介,是一种“人的延伸”,也是独立于外部空间的、相对封闭的移动空间,形成驾驶或乘坐场景,它们既接收外部环境的反馈,延伸感知,又向内部的驾乘人传递信息。当交通工具向乘用场景传递信息的媒介并未隔绝外部空间时——显示虚拟界面的介质是透明的,可以在视觉上将虚拟信息与现实世界的视野重叠。而增强现实(AR)正是叠加虚拟于真实的技术,并为感官所感知,实现超越感官的体验。应用于交通场景的非头盔式显示器可以营造用户感知系统和虚拟信息共存的虚拟场域,用户的媒介意识得以消释,沉浸在增强现实环境之中。[1]这一媒介化场景一定程度上与物质场所,即现实时空形成了分离,重构了空间格局。[2]而作为一种混合场景,交通場景中的AR等技术无疑为用户提供了具有沉浸感的驾乘体验。
(一)AR-HUD重构座舱时空观
传统车机的交互脱离真实时空场景且割裂感官,驾乘者的媒介意识很强,人机间的审视距离较大,无法进行情感投入;AR-HUD有更宽阔的视野,人机互动在驾乘场景中形成了开放空间和自由视角,回归自然时空观。其驾驶行为可以理解为与AR游戏体验无异,即根据感官接受到的信息产生相应的身体动作——驾驶等行为,驾乘者的身体已浸入由AR交互界面所构建的传播场域,以人的实时参与和感官共振搭建了虚拟与现实融合并存的驾乘情境。[3]
传统车内显示屏会使驾驶员视线偏离前方,干扰其意识,而随着车机智能和互联化,车内场景的交互界面向空间界面发展,前挡风玻璃可以呈现车辆状态、导航、路况以及娱乐、社交等应用场景,拓展了驾乘空间的媒介属性,提供多样化的沉浸体验和互动叙事。[4]现实空间的虚拟现实混合呈现产生了空间的媒介化,从而使传统汽车座舱完全真实的驾乘场景偏向虚拟[5],即在车载智能设备协作下重构的虚拟现实空间。
(二)“魔窗”构建共同经验模式
深圳地铁10号线的“智慧车窗”支持触摸交互,显示广告、天气和路面交通等信息,还可访问互联网。在站台“候车引导屏幕”和透明显示屏蔽门的配合下,乘客进入多方位、多感官接收的车厢场景中,同传统车厢的小型屏幕相比,“智慧车厢”所呈现的信息更实用和即时,在观感上更能吸引乘客的注意力,提升了隔绝感,但也保留了虚拟信息和现实环境重叠的通透感。若这一技术与车厢内外摄像头、传感器等元器件相配合,或将实现透明屏幕显示的AR/MR(混合现实)效果,在多屏联动下呈现比HUD面积更大、更细腻的视觉效果和多样化的情景转换,构建可交互的公共媒介信息空间,产生同时面向多用户的沉浸式传播模式,进入共同的经验模式之中。
三、技术融入身体:沉浸式传播的界面
(一)界面从二维向全景进化
唐·伊德认为,技术身体是在人与技术的关系互动中,通过技术或技术化人工物为中介建立起来的身体。[6]智能座舱和车厢以AR/MR等视觉技术为主、传感器和情景建构技术为辅,将用户包裹于数字化传播场域中,赋予其用技术感知世界的能力,使技术成为人与世界的中介,双向赋权、平台式传播场域被“即时关系”的沉浸式传播取代。感官构造决定了人在传播场域中的体验方式,身体结构赋予了技术的发展逻辑,[7]在人类的信息获取感官比例中,视觉占比最大,故视觉效果是沉浸式传播首要的考虑因素,在技术身体的感知框架中,显示技术最为重要,服务于其他感官的功能性部件须围绕以视觉为核心体验的研发和使用逻辑。所以在沉浸式传播技术中,AR-HUD或未来的“AR/MR魔窗”是驾乘场景交互界面的核心,透明显示技术向驾乘者传播人工虚拟符号,当座舱空间中的符号进入驾驶人的认知系统,其意识便沉浸于特定的意义空间,这一意义建构符号集可以是辅助驾驶、信息交互或娱乐等界面的符号。[8]驾乘者在数字建构的媒介信息空间中进行认知判断,其意识空间中物理和媒介空间感知的边界不再明确,进行沉浸式传播。
沉浸式传播是以人为中心、开放的媒介形态,包含所有新旧媒介,以及传播流程中的、有形或无形的媒介形态,包括环境和人。[9]沉浸传播场景中的身体可以作为信息交互界面,如智能座舱通过传感器感知语音、肢体动作,并产生相应反馈,减少对传统意义上车机系统的依赖——从“以屏为界”过渡到“界面全景化”,同纸面到屏幕的媒介革命一样具有划时代意义。在屏幕互动时代,空间的压缩导致身体感官被“截肢”,个体之间以身体缺席方式进行交流,各类信息间的倚重失衡;在屏幕智能化时代,身体在线回归,但仍限于模拟真实身体的在场,并非全感官与场景的融合体验。譬如传统车机只能在优化驾驶体验的信息交互和娱乐界面占据空间,而不能实时参与驾驶人员身体的驾驶任务,造成座舱的空间割裂和不完整的交互方式;而AR-HUD构建的全景界面,即沉浸式传播场景使得身体在场回归,是所有感官的在场,车内空间的媒介化为驾乘人提供“去界面化”的体验,使其忽视界面的存在,乃至媒介意识的消释。
(二)具身交互使数字与现实身体共在
多款车型配备的“手势隔空操控”,使座舱可以感知驾乘者的位置信息,用物理身体的实践操控车机。虚拟世界和自然世界的感知框架间存在着平行关系,人类的生物学器官同人造媒介一样,均为信号传输器和转换器[10],智能座舱使感官被数字化地延伸至系统中,一系列虚拟现实技术通过复制、模拟身体的以往感知觉经验营造沉浸环境,实现了感官经验的全替代[11],出现另一种存在于虚拟空间的身体感知框架,由传感器还原的数字身体成为“界面”,从而实现驾乘场景与驾乘者身心的有机统一,取代曾经媒介与用户二元对立的模式。[12]
在笛卡尔以来的“心物二元”认知体系中,技术属于“物”一端,而在人机互嵌的沉浸传播中,身体已经变为连接自在世界和自为世界的“现象身体”,技术融入人的生存基础,感官与媒介的交互被“自然化”,虚拟(赛博)世界中的数字身体依然印证着主体的在场。[13]沉浸式传播的意义是通过身体这一人机交互界面产生以人为中心的驾乘体验,数字媒介整合了碎片化的身体,构建人、机、物交织的智能身体,而不再是“延伸即截除”的传播模式。[14]驾乘主体沉浸于座舱或车厢之内,也就将身体连接进了交通工具,成为互相的一部分。交通场景中的“离身”交互从此进化成“具身”交互,人的感知边界被延伸到车载传感器、摄像头等设备的感知范围,驾乘场景中的身体得以解放,驾乘行为的安全性和舒适性等指标将大大提高。
四、技术趋于无形:从前台后退到环境中
(一)泛在的平静技术实现万物互联
当人的身心与交通工具有机统一,人与环境的边界消失,沉浸于“泛在计算”的交通场景中,这类场景即从“物理场景”转变为“媒介场景”——弥漫在空间中的声波、无线电波、微波、红外线、激光等传输介质是人与设备、设备与设备间对话的语言,借助不可见且难以感知的交互方式,数据被持续、即时地收集、发送、反馈,处于环境中的泛在连接和智能程序得以对接虚拟和现实;[15]车舱或车厢内外的各种传感器就是实现这种无形的信息传播与控制的终端,在与智能透明显示设备的配合之下實现驾乘人身体向周围世界的外化和周围世界向身体的内化,即物我合一的技术具身[16],同显示器、传感器等车载AIoT(人工智能物联网设备)一样,成为在线的物联网节点。
身体作为一个整体系统以通感方式与外部环境交互,这一身体系统也是持续在线的,由于媒介技术经验融入身体经验和知觉系统中,驾乘人能够对所处环境形成多元化情境的体验感知。[17]如今以AR-HUD、透明OLED等为代表的智能显示技术作为ADAS、V2X(Vehicletoeverything,车与万物互联)或自动驾驶等系统的重要外围设备之一,既可使系统的感知、计算与交互与驾乘人的身体相通,又可使载具在接入多样的智能服务后成为数据交互平台,在智能车机支持下的透明显示屏能显示更多功能和更复杂的内容形式,从而产生信息服务的沉浸效果。在此过程中,向身体供应视听等信息种类的媒介技术后退到场景的“后台”,安静地运行,而技术载体——电子设备,以难以察觉的方式对接身体经验,延伸着感知的边界。
(二)人性化的媒介塑造人机交互新形态
沉浸感重在人的体验。驾乘场景中的信息流动,即意义传递过程中,噪声、冗余内容等都要由AI解决,沉浸式场景应尽可能地淡化破坏虚拟现实融合感的交互流程,智能车机能够自主学习并决策交互项目,正如尼葛洛庞蒂所说的“界面应该设计得像人一样,而不是像仪表板一样”[18]。随着基于用户数据库的AI智能化程度提高,驾乘场景的空间界面便越来越像“人”——负载着人类智慧的信息体展现出人的性质和功能,透明显示和其他设备所具备的虚拟现实功能使人机系统变成超现实、超自然、超时空的“电子人”,现实身体作为界面,是进入虚拟场景的窗口。而虚拟场景中映射的数字身体则与AI即“电子人”产生信息交流,进行沉浸式的人机对话,AI驱动的人机交互如同身体在场的人际交往,用无形的设备和无缝的信息传输为用户提供贴近本能的、直接的自然交互体验,不再以凸出技术独立存在的“仪表板”等形态出现,并学习、积累交通场景中的“社交智能”。AI对人的直接感知来自早期交互的前期经验,以及在此基础上生成的共享文化物体,处于梅洛-庞蒂提出的融合社交模式之中,这种人机交互系统更能取得信任,有着更好的用户体验。[19]
AR-HUD和透明OLED屏幕在交通场景的人机对话中扮演着最为重要的角色,提供对话的虚拟现实叠加场景,作为一种偏向“人”的传播媒介,沉浸式技术凸显了人的主体性,也推进了人的进化,使人成为终极媒介本体。[20]
五、技术更迭时期的困境与展望
(一)完全实现意识独占和数字与真实身体共存仍需时日
作为一种媒介手段,技术是达成良好体验的第一门槛。AR-HUD所要求的大面积投射或显示是新的挑战,例如在全车窗、有弧度条件下的AR-HUD显示可能会产生畸变,造成视觉误差;再例如,AR-HUD系统中实时监测的视觉采集传感器,需将图像信息传递给卷积神经网络进行处理,[21]其中卷积运算和信息传递的速度、成像系统的反应速度都将决定驾乘人的视觉体验,一旦延迟或误差达到可感知程度,就会降低沉浸式传播的完整性,造成不同感官信息接收失衡,破坏沉浸感,甚至危胁驾驶安全。在透明OLED显示技术方面,目前存在着对比度、亮度和光线透过率较低的难题,同时较高的成本也使其暂时无法提高普及率。
上述问题都要依靠技术手段解决。如提升AR-HUD的流畅度、稳定性、视场角和方位追踪等光学成像水平,以及卷积神经网络的算力、传感器间通讯速度与稳定性等指标;再如完善透明OLED面板的透明基板和阴极技术,或其他透明材料和显示技术(如Micro-LED)的应用,以优化分辨率、对比度、透明度等参数。无论是AR-HUD还是透明OLED显示屏,都朝着小体积、高透光率和更清晰流畅的方向进化,甚至二者会合二为一,产生具有AR/MR功能的自发光透明显示等技术。
(二)冗余信息干扰驾乘人认知与选择
对于配备AR-HUD的私家车而言,挡风玻璃界面的信息容量暴涨,如果UI及其逻辑设计不当会分散驾驶员的注意力。当下的AR-HUD显示ADAS的驾驶任务相关信息,与现实视野叠加,但随着AR-HUD功能的丰富和辅助驾驶技术的进步,挡风玻璃甚至侧窗的娱乐化应用被提上日程,这一方向与“魔窗”有着同样的研发思路。
透明显示界面的交互逻辑是交通场景沉浸式体验个体层面的标准,把握沉浸传播与真实感知的平衡是重要课题,这二者中对现实的感知应该是优先级。沉浸式传播空间构建于驾乘场景之上,驾乘是基础功能,流动于场景中的视听符号信息也应以驾乘这一主要界面为一级任务,并减少冗余的商业信息或是驾驶时段内的新闻、娱乐等资讯。前文提及的AI自主判断显示内容是解决方案之一。
(三)沉浸式交通场景尚未有标准可依
当下应用于交通领域的透明显示设备尚未有交互准则或行业标准,但目前已有几款量产车和智能车厢方案发布,AR-HUD和透明OLED屏幕已是大势所趋,2020年我国HUD市场规模已达65.6亿元,2025年将达244.8亿元,AR-HUD占据约20%,是主机厂和供应商的重点布局技术;“魔窗”系统和智慧地铁项目也将不断推进,急需出台针对行业和技术指标的政策法规。
六、结语
交通场景下的沉浸式传播正走进普通消费者的视野,AR-HUD和透明OLED显示技术作为这一传播模式的重要环节,推动了智慧出行和泛媒社会的进程,智能座舱和智能车厢中的全景界面消解了驾乘人的媒介意识,交互和感知方式回归自然,技术还原的数字身体与真实身体同时在场,所有感官全面沉浸于透明显示等设备构建的混合空间与虚拟符号集之中,实现具身交互和人机的融合社交模式,无疑促进了人的进化。沉浸式传播不仅仅是交通场景中新技术的融合与进化,更是一种新的传播现象和新的信息流动模式,是泛媒社会万物互联、场景化传播趋势的缩影之一。
参考文献:
[1]孙玉明.试论沉浸式传播环境中艺术自然感知的回归[J].新闻研究导刊,2017,8(21):14-15+120.
[2]刘宏,周婷.场景化时空:一种理解当今社会的结构性视角[J].现代传播(中国传媒大学学报),2020,42(08):27-32.
[3]喻发胜,张玥.沉浸式传播:感官共振、形象还原与在场参与[J].南昌大学学报(人文社会科学版),2020,51(02):96-103.
[4]陈昕炜,唐冠东,张学伟.汽车玻璃的交互界面设计探究[J].工业设计研究,2018(00):14-21.
[5]刘宏,周婷.场景化时空:一种理解当今社会的结构性视角[J].现代传播(中国传媒大学学报),2020,42(08):27-32.
[6]杨庆峰.物质身体、文化身体与技术身体:唐·伊的“三个身体”理论之简析[J].上海大学学报(社会科学版),2007(1).
[7]喻发胜,张玥.沉浸式传播:感官共振、形象还原与在场参与[J].南昌大学学报(人文社会科学版),2020,51(02):96-103.
[8]孔少华.从Immersion到Flowexperience:“沉浸式传播”的再认识[J].首都师范大学学报(社会科学版),2019(4):74-83.
[9]李沁.沉浸传播的形态特征研究[J].现代传播(中国传媒大学学报),2013,35(02):116-119.
[10]翟振明.有无之间:虚拟实在的哲学探险[M].孔红艳,译.北京:北京大学出版社.2007:11.
[11]姚洁.沉浸式传播中的身体感知[J].青年记者,2020(08):43-44.
[12]崔英超.身体与界面的交互:具身阅读的界面文化传播[J].编辑之友,2020(9):22-27.
[13]曹钺,骆正林,王飔濛.“身体在场”:沉浸传播时代的技术与感官之思[J].新闻界,2018(7):18-24.
[14]孙玮.传播再造身体[J].新闻与写作,2020(11):5-11.
[15]李沁.媒介化生存:沉浸传播的理论与实践[M].北京:中国人民大学出版社,2019:11-38.
[16]芮必峰,孙爽.从离身到具身:媒介技术的生存论转向[J].国际新闻界,2020,42(05):7-17.
[17]殷樂,高慧敏.具身互动:智能传播时代人机关系的一种经验性诠释[J].新闻与写作,2020(11):28-36.
[18]尼葛洛庞蒂.数字化生存[M].胡泳,范海燕,译.海口:海南出版社,1996:112.
[19]王慧莉,李雪娇.现象学视域下人机交互的主体间性分析[J].东北大学学报(社会科学版),2020,22(05):16-22.
[20]李沁.媒介化生存:沉浸传播的理论与实践[M].北京:中国人民大学出版社,2019:230-236.
[21]曹世龙.基于CNN和HUD技术的交通标志提醒辅助驾驶系统设计[J].汽车实用技术,2020(9):45-46.
(徐瀚祺为中国传媒大学新闻学院新闻学专业2019级硕士生;宫承波为中国传媒大学艺术研究院教授、博士生导师)
编校:郑 艳