增强现实头显发展全面回顾 苹果首款AR眼镜产品形态预测
MagicLeapOne运行名叫Lumin的操作系统,主要通过MagicLeapOne Control手柄上的触控板和按键来操作,相较于Hololens的手势识别,手柄操作可以获得更精准的操控,但是这也限制了应用创新,使用者不能自然的通过手部动作来操控虚拟物体,这就无形当中限制了应用类型。 —————————————————————— 不只是谷歌、微软和MagicLeap这样的公司,近些年随着增强现实领域在全球科技界热度的不断升温,陆续涌现出了一批投身于增强现实技术和头显设备研发的企业,比如刚刚的19年联想推出了ThinkReality A6头显。 (图ThinkReality头显) 国内知名手机厂商OPPO也在去年展示了一款概念版AR头显设备。 (图oppo AR头显) 华为则是立足于基础研发及应用,陆续推出了面向开发者的HUAWEI AR Engine开发工具,以及面向华为旗下手机终端用户的基于(Cyberverse)华为河图技术构建的AR地图。 (三图 华为AR地图) 可以说现在增强现实领域已经成为了业界最热的焦点,各大厂商都致力于在这一新领域、新平台上抢占先机,苹果公司自然也不会错过这班车,早早便在这一领域暗自发力、潜心耕耘,下面我们就来详细剖析一下苹果这些年在AR领域的技术布局,以及大胆预测一下即将面世的苹果AR眼镜可能会是什么样子。 我们可以用时间轴的形式回顾一下这几年苹果是怎么样有条不紊的布局AR技术路线。 —————————————————————— (图2017年WWDC发布ARKit) 2017年的全球开发者大会上苹果面向开发者推出了增强现实开发框架ARKit的第一个版本,这标志着苹果正式进军AR领域。 (图ARKit1特性) 苹果采用了和其他厂商不同的策略,采用了开发者先行,先软件后硬件的模式来推进AR,苹果希望和开发者一起通过几年的时间慢慢完善自己在软件方面的功能,这样的优势是,对于开发者来说有充足的时间来学习掌握AR开发技术,对于苹果来说也能不断的从开发者方面接收反馈,完善自己的框架。ARKit1提供了基本的AR功能,包括平面探测、位置追踪、光影推测。 (图A9和以上处理器都支持ARKit) 值得一提的是,苹果表示所有采用A9或更新处理器的iPhone和iPad都可以支持ARKit,这可以说是非常关键的,开发者不需要购买新的硬件就可以用手上现有的设备马上开始进行AR开发,没有了硬件门槛儿。在ARKit1的特性中,有必要着重提一下光影推测,这是一个非常重要的功能,他可以实时检测环境光线状况并改变赋予虚拟内容的光照强度,使之看起来更加融入周围环境,提升真实感。 (图 利用原深感摄像头进行面部扫描建模) 2017年发布的iPhoneX其实也和AR息息相关,可能你会疑惑,这和AR有什么联系,需要关注的焦点在于iPhoneX搭载的原深感摄像头,表面上看他的功能是用于面部解锁,其实苹果在另一个层面是将iPhoneX作为了AR硬件的第一个试验场,验证通过红外点阵光进行建模的功能,这为之后引入激光雷达做了技术论证。由此可以推测出,苹果早在17年就已经基本确定了AR头显的硬件方向。 —————————————————————— (图 ARKit2特性) 2018年苹果继续在软件层面完善AR开发框架,在全球开发者大会上发布了ARKit2和AR专属文件格式USDZ。ARKit2带来了众多新特性,其中两个最值得关注,一是多用户体验。 (图 多用户体验) (编辑:晋中站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |