iPhone的未来是什么?
2022-02-06作者奇客姐
作者/奇客姐
前言
耳机、手表和汽车只是连接的开始,接下来苹果预计很快会发布其VR/AR硬件产品,并重新定义被Meta公司定义过的“元宇宙”。iPhone可能会演变为这些设备的大枢纽。
在下一场变革来临之前,人们讨论的话题可能还是会围绕手机的价格、重量、颜色、影像能力、充电效率,以及能不能折叠。iPhone将继续向一个AI功能不断进化的超级终端演进,直到它的“终结者”到来。
2022苹果秋季发布会掠影
当地时间2022年9月7日,美国加州库比蒂诺,在苹果发布会上,新款iPhone 14亮相。苹果中国官网随后公布iPhone 14 Pro系列售价。入门版本iPhone 14 Pro和iPhone 14 Pro Max售价与上一代保持一致,分别为7999元和8999元;但256G、512G和1TB版本分别涨价100元、300元、500元。【iPhone 14 Pro】256G:8899元;512G:10699元;1TB:12499元。【iPhone 14 Pro Max】256G:9899元;512G:11699元,1TB:13499元。
这是苹果公司史上第十六场iPhone发布会。一方面,挤牙膏式的小幅升级让“科技界春晚”不再像几年前那样激动人心,但另一方面,iPhone仍然是全球范围内最火的中高端智能手机品牌,以至于一点点更新都能引发舆论高度关注。15年过去了,有一个问题被问得越来越多:iPhone还能火多久?iPhone的未来是什么?
抛开消费市场上的喧嚣,有一个故事也许能打开我们的视角:2020年疫情高峰期,英国盲人记者露西爱德华兹(Lucy Edwards)因为看不见而很难保持社交距离,她尝试了iPhone的“人员检测”功能,使用LiDAR来检测其他人何时在附近,并计算他们与用户的距离。
LiDAR是苹果公司在iPhone 12 Pro和13 Pro系列上配备的新功能,利用光来探测及判断距离。它是iPhone内置技术在过去15年中如何演变的一个例子。但不像屏幕越来越大、相机越来越高级这种渐进式改进,LiDAR体现了苹果公司未来十年的规划思路——为AR(增强现实)的引入铺路。
今后,iPhone可能会演变为智能眼镜等设备的大枢纽。耳机、手表和汽车只是连接的开始,接下来,苹果预计很快会发布其VR/AR硬件产品,并重新定义被Meta公司定义过的“元宇宙”。在替代智能手机的新交互方式到来前,对智能手机的下一个追求,首先是搞清楚它会连接到什么。
成为超级终端
在9月7日的发布会上,苹果发布了Apple Watch Series 8,配备温度传感器,可回推女性的排卵周期,预测经期,还能检测用户的夜间温度变化;新增了车祸检测功能,高G加速传感器可精准检测碰撞。
相比手表硬件的更新,苹果公司7月20日发布的健康报告更值得关注。这份近60页的报告首次完整阐述了该公司在健康医疗市场的战略。战略主要分为两个方向:第一是打造运动和健身等功能吸引消费者,第二是与传统的医疗系统或医学研究机构开展合作。
报告中提到,Apple Watch和iPhone将支持17个健康和健身领域的功能,这些功能可以在近200个国家和地区使用。而用户可以把自己的日常健康数据与研究人员共享,帮助推进科学研究。一些医疗系统和研究机构正在使用苹果的设备、API和框架来改进医疗服务。可以看出,苹果想通过Apple Watch在健康和医疗等领域建立多个子生态,尽可能多地覆盖用户的使用场景。
可穿戴、无感化健康监测设备被认为是元宇宙医疗的第一大场景。随着智能手表功能的完善和升级,消费级与医疗级产品的边界正在逐渐模糊。未来,我们可能首先通过自己的手表得知健康问题,再去寻医问诊。
在刚刚结束的发布会上,苹果宣布推出AirPods Pro 2,配备H2芯片,将具有个性化空间音频,根据每个用户的耳朵造型去定制个性化的空间音频。
2020年,新发布的IOS 14系统推出了空间音频功能,给Airpods产品的销售又添了一把火。它把听音乐的体验提升到了新高度,带来更强的现场感。用户在享受这种体验时是否会想到,这是苹果公司在为未来实现“沉浸感”的AR设备打造听觉基础。
在元宇宙概念骤然火爆之后,一度沉寂的VR/AR/XR业界又看到了希望,争相抢夺元宇宙的入口。与Meta看中VR(虚拟现实)不同,苹果认为AR才是未来。
根据目前的报告、专利申请和已发布代码,数百名苹果公司的员工正在加紧构建两个独立的硬件平台,该平台将运行一个名为reality OS的苹果操作系统。第一个是头显设备,第二个是眼镜。
一般来说,用于VR和AR体验的主要设备可以分为三类:笨重的室内专用VR头显;笨重的室内专用AR头显;看起来像普通眼镜的日常AR眼镜。前两个类别将提供令人兴奋、高质量的体验,但不会成为大多数人生活的核心。可以在所有社交场合全天佩戴的AR眼镜,才可能取代智能手机成为人们的核心设备,在10年内对我们的工作和生活产生重要影响。
分析人士预测,苹果公司的头显设备预计于明年发货。这款硬件将像PC一样强大,而且价格昂贵,据估至少2000美元,并将配备两个8K显示器。镜片将配备传感器,用于映射3D空间,并监控用户的身份、视线等因素。空间音频将有助于创造虚拟物体存在于物理空间的错觉。
而眼镜产品看起来接近普通眼镜,并支持处方镜片,可能会在2025年发货。最终配置信息目前还很少,苹果公司可能尚未确定其最终规格。
彭博社的马克戈曼(Mark Gurman)和分析师郭明錤都预测,苹果还在构建一种XR(混合现实)设备,可以同时提供AR和VR体验。
那么,上述这些设备与iPhone有什么关系呢?iPhone将成为这一切的中枢。尽管AR终端预计将作为独立设备运行,但它运行的应用程序和服务可能也要依靠iPhone操作。
这种趋势已经显现。根据研究机构Counterpoint Research最近发布的报告,自2010年以来,iPhone在美国的使用量首次超过安卓手机。分析认为,iPhone的畅销绝不仅仅是因为iPhone自身,而恰恰是因为它是连接AirPods、Apple Watch、Apple TV+、Apple Arcade,甚至iPad和Macbook的完美终端。随着苹果生态系统的进一步强大,iPhone作为超级终端的地位会继续强化并持续推动其市场占有率长盛不衰。
更先进的人工智能
回到手机本身,从当前iPhone内置的技术中,也可以看到苹果公司的想法。
随着他们更深入地推动AR,LiDAR可能会继续保持重要地位。但是,目前的LiDAR系统不够复杂,无法实现苹果在AR上的雄心壮志。长期研究苹果的分析师吉恩蒙斯特(Gene Munster)说,现实世界的映射需要更准确,否则无法获得AR体验。
即使LiDAR提高了iPhone的深度感应能力,但仍然需要由手机的处理器来理解所有这些数据,所以处理器必须保持持续升级。iPhone 14 Pro系列把芯片升级到了A16仿生芯片,拥有160亿个晶体管,CPU提升40%,功耗降低20%。
此外,苹果希望用人工智能为iPhone等产品提供更多关于用户及其周围环境的背景。目前,苹果手表已经使用人工智能和从传感器收集的数据跟踪睡眠,并提醒洗手时的注意事项。最新的Apple Watch Series 8的车祸检测功能,也得益于机器学习的训练,对于多种车型、类别的车祸实现精准检测。iPhone 14系列也支持与Apple Watch Series 8相同的车祸检测。iPhone 14 Pro系列的相机则通过算法实现了两倍变焦。而AirPods Pro 2支持自适应通透模式,通过每秒48000次的计算带来更出色的自适应通透效果。
Counterpoint Research的高级分析师哈尼西巴提亚(Hanish Bhatia)举了一个例子,来说明iPhone未来在人工智能上的改进。他设想的未来是,苹果手机可以观察一个人的习惯,以了解手机的主要用户或家庭成员是否正在使用该设备。
“你使用手机的方式,你的智能手机从什么角度倾斜……你是用特殊的压力按压,还是只用指甲或类似的东西敲击它?”他说。所有这些都是不同类型的行为,对用户来说非常独特。
这个例子并不一定反映苹果的实际计划。但随着人工智能以及激光雷达和超宽带等技术的进步,iPhone将具有更多的空间感知能力,就很容易想象出上述场景。
在今年6月的WWDC 2022大会上,新发布的 iOS 16 里已经新增了一些与人工智能相关的功能。比如,“实况文本”功能支持对视频中的文字进行高效识别。另外,基于人工智能的学习,iOS 16 现在也可以主动识别图片中的主体,并提供自动去底的功能,让“抠图”更方便。
未来,苹果的硬件和软件必然将共同朝着人工智能应用的方向进化和相互支持。
图/87870 虚拟现实网
图/big-bit
苹果未来的整体战略
市场情报平台CB Insights最近总结了自2018年初以来苹果公司所有收购、投资和合伙的企业的信息,让我们能够瞥见他们对未来的计划。这四年多以来,苹果收购了超过25家公司,其中至少有11家企业属于AR/VR和AI/机器学习类别,包括人工智能初创公司Xnor.ai和VR流媒体平台NextVR。
随着苹果产品阵列中的新品类——AR设备的发布,苹果将加入与Meta对元宇宙定义的竞争,但擅长营销的苹果很可能会避开元宇宙这个名词。毕竟,苹果总是喜欢给自己的产品赋予别具一格的称呼。例如,iPhone的面部识别技术不叫面部识别,而是“面容ID(Face ID)”。实现面容ID的相机和传感器系统被称为“原深感(TrueDepth)”。苹果音乐使用标准的杜比全景声技术,但在苹果的世界里,被称为“空间音频(Spatial Audio)”。
同样的,由Meta描述的元宇宙可能也不符合苹果的口味。到目前为止,人们在Meta上看到的元宇宙体验是笨重的、像早期卡通一样,并且封闭在VR目镜的狭窄空间内观看。所有迹象表明,苹果对创造包含现实世界的开放体验更感兴趣。
在使用AR设备进行空间计算时,用户界面是用户面前的整个可见世界,眼镜中的镜头在现实世界物体内部和周围显示数字内容,可能会在用户正在查看的雕像上方显示一个地标标签。也就是说,操作系统的元素将显示在用户视图中的某个位置。苹果正在沿着这些思路思考,所以它把未来的操作系统叫做“reality OS(现实操作系统)”。
另一个苹果想要区别于Meta的方面是隐私问题。XR眼镜包含的相机、麦克风和传感器要多得多,其操作系统收集的关于人们动作(甚至眼球运动)的数据比智能手机更多,还会使用人工智能来理解正在生成的所有感官数据。它们会以智能手机时代从未见过的方式进行数据收集和监控。而苹果一向展示出非常努力保护用户隐私的姿态。
9月7日发布会上最引发热议的灵动岛功能,可能会进一步凸显苹果对隐私的注重。之前有消息称,绿色和橙色的摄像头和麦克风隐私指示器会在iPhone 14 Pro的挖孔附近变得更亮,这个更新是否出现在灵动岛上,还有待进一步消息公布。
今年8月,苹果公司CEO蒂姆库克在接受采访时被问到,他认为史蒂夫乔布斯会怎么看待今天的苹果。他说,乔布斯会喜欢苹果现在正在做的一些事,但也会就一些事说:“我们可以在这方面做得更好”。
15年前iPhone诞生,从此引领了移动互联网时代的深刻变革,让智能手机变成虚拟世界最重要的终端入口。目前,我们还暂时看不到什么样的设备能取代iPhone等智能手机的地位。在下一场变革来临之前,人们讨论的话题可能还是会围绕手机的价格、参数、颜色、影像能力、充电效率,以及能不能折叠。iPhone将继续向一个AI功能不断进化的超级终端演进,直到它的“终结者”到来。
图/Unsplash