苹果iPad Pro最新加入消费级激光雷达技术
3月18日晚,苹果悄悄在线上发布了最新的iPad Pro。在诸多新特性中,苹果重点宣传了该产品的摄像头模组。原来,苹果在摄像头模组里,引入了一项新技术,那就是我们在自动驾驶应用领域常见的激光雷达LiDAR,这枚无法拍照的摄像头,其作用是什么呢?
图自苹果官网
据了解,苹果采用的激光雷达LiDAR,全名是Light Detection and Ranging,简单来说,发射脉冲激光投射到物体上,再返回传感器中,从而测量目标的距离、形状、体积等,这一过程是纳秒级别的。苹果没有在宣传材料中采用 ToF(Time of Flight) 这样的叫法,但是技术原理是差不多的,激光雷达是实现飞行时间计算的一种方式。
LiDAR发射的光波存在两种调制方式:直接飞行时间(Direct-ToF)测量和间接飞行时间(Indirect-ToF)测量,直接测距, 是通过发射、接收光并测量光子飞行时间,直接计算确定距离,而非直接测距iToF,是通过测量发射波形和接收波形间的相位差来换算,从而确定距离,直接测距拥有响应快、功耗低等优势,但同时成本也会更高。
此前,OPPO和LG在手机上采用的均是间接飞行时间,而苹果此项技术采用的是相对更复杂的直接飞行时间。和传统的红外ToF相比,激光雷达的精度更高,因此常被用在地图绘制、三维建模、体积测定等场景,比如自动驾驶、航空航天。
苹果引入此项技术,并不是为了拍照,而是为了AR,苹果表示,支持ARKit的应用程序都将自动获得LiDAR所能提供的特性,并且能极大地缩短AR建模的速度,提高测量精度,降低抖动、错位的情况。比如AR尺子能更准了,室内设计时的建模能快了。
相关游戏演示,图自苹果官网
比如,苹果演示了一款游戏,游戏可通过激光雷达对客厅进行建模,再加入岩浆特效,玩家可跳到家具上躲避熔岩。
苹果把过去应用在汽车、飞机上的模组做小,集成到薄薄的iPad中,如何在如此小的体积下实现高精度的测量,是这套技术的核心。
据了解,苹果并没有采取市面上第三方的雷达供应,而是选择了自己研发。苹果本身还会融合自家的算法以及摄像头技术,根据苹果官方的介绍,iPadOS采用全新深度架构,可和激光雷达探测到的深度点、两个摄像头和运动传感器捕捉的数据相结合,并通过 A12Z 仿生芯片的计算机视觉算法来进一步优化,以更详细地理解场景。
苹果官方表示,已向开发者释出iPad Pro的 ARKit,并预告在今年稍后带来对应的 AR 应用,涵盖生活、医学、游戏、建筑等不同方向的应用。也许,AR 换装、试衣之类的场景会受到欢迎?目前有分析指出,或许2020 年,会真正成为ToF与消费级激光雷达的元年。
自新型冠状病毒肺炎疫情爆发以来,传感器专家网一直密切关注疫情进展,根据国家及地方政府的最新调控与安排,为更好的服务相关企业,在疫情期间,传感器专家网免费发布企业相关文章,免费成为传感器专家网认证作者,请点击认证,大家同心协力,抗击疫情,为早日打赢这场防控攻坚战贡献自己的一份力量。