说来惭愧,距离VR/AR元年已经4年有余,令消费级用户满意的设备一个都没有。 虽然Google Glass已经经历了3次迭代,但它的应用范围仍局限在工业领域;从手机市场退席转而押宝Vive项目的HTC,设备至今还要人机连线(VR+电脑);接受过包括谷歌、阿里等巨头投资的Magic Leap,这个月宣布裁员1000人…这真是个连活下去都需要勇气的险地。 如果主角换成苹果,故事会怎样? 在我们消费者已经鲜有期待的2020年,苹果智能眼镜爆料来了。那个准确“预言”了iPhone SE发布时间和价格的男人@Jon Prosser,带着它的名字、它的配置、它的功能,来了。随后,知名爆料媒体MacRumors随后对爆料做了进一步补充,所以就有了以下这个超全的爆料配置:
根据Jon Prosser的描述,Apple Glass所采用的交互方式分为两种:一种是眼镜(镜片)表面,用户可以在两个镜片上浏览信息,但周围的人无法看到内容;一种是眼镜前方,用户通过手势交互来实现包括定位、点按的操作。而这种交互方式和苹果今年申请的专利不谋而合: 通过一个智能指环,用户可以在眼镜表面和前方进行操作。换句话来说,Apple Glass是需要其他设备辅助的。但就体验而言,智能手环可能比起半斤重的感应手柄舒服太多。 说到设备辅助,Apple Glass还需要和iPhone协同,数据处理大部分由后者完成。不难看出,Apple Glass更多的在充当显示屏角色,搭载A系列处理器的iPhone才是这个设备的最强大脑。 在Apple Glass这一堆配置里头,LiDAR(激光雷达)是本年度刷存在次数最多的硬件(具体关于这个雷达的详细介绍大家可以看我们之前写过的这篇《惨遭用户忽略的苹果硬核卖点》)。 而它的存在,是Apple Glass和其他AR设备正在拉开体验差距的地方。作为具有远距离高精度识别的ToF镜头,LiDAR能够提供更加准确的数据捕获,虚拟和现实之间的融合度会更高。同时,LiDAR体积相比以往同类硬件小得多,结合在眼镜上也更加无感(此处可联想对比微软的Hololens)。 说实话,从2017年的WWDC大会上的ARKit发布开始,苹果想要打造AR设备的意图已经非常明显了。即便在接下来的两三年间关于Apple Glass的消息都像捕风捉影,但不可否认的是,苹果正在向AR发展。包括你能看到的每次发布会上的AR演示、AR工具发布,再到LiDAR硬件公开,这其实是一种从软件生态包围,等到硬件成熟再一举占领高地的反向战略。 那些「体验不好不紧要,忽悠多少算多少」的飞猪们,苹果杀过来了。 |