Google过去两年来持续在为ARCore增添新功能,像是在I/O上推出的Environmental HDR,就能靠着机器学习来判断环境光源的角度,并以此为依据为3D对象打上正确的光影效果。而现在,Google推出再推出了一个Depth(深度)API,靠着理解场景中所有对象的相对深度与前后关系,带来更拟真的场景。
Google在今年稍早在搜索中带来了部分动物的3D建模,用支持的手机搜索动物的名称(例如“猫”)的话,就会出现该动物的3D模型选项,让你可以将其丢进眼前的AR世界中。然而,这动物进入AR世界后,虽然大小和位置都是正确的,但却会一直保持在“前景”,不会被更近的物体所阻挡,也就是说你伸手过去的话,就会发现自己的手在模型之后,立即破坏了AR产生的错觉。现在在激活了ARCore的Depth API之后,物体间的屏蔽就可以被正确地展示,让AR物体更拟真了。