深度传感器的三种技术对比分析方法(深度传感器的三种技术对比分析)

深度传感器的三种技术

目前,如果人们想要探测环境深度信息,主要依靠三种技术,即相机阵列、TOF(飞行时间)技术和基于结构光的深度探测技术。

结构光:

接收器使用激光光源投射目标,并检测反射目标的变形,以基于几何形状计算深度图。它必须扫描整个平面才能得到需要时间的深度图,所以非常精确。但是这种方法对环境亮度比较敏感,所以通常只在黑暗或者室内区域使用。

飞行时间(ToF):

ToF主要有两种方法。第一种很简单:激光源发射一个脉冲,传感器检测脉冲在目标物体上的反射,记录其飞行时间。知道了光速不变,系统就可以计算出目标物体的距离。为了保证高精度,脉冲周期必须短,这导致成本较高。此外,还需要一个高分辨率的时间数字转换器,功耗很大。这种方法通常可以在高性能ToF传感器中找到。

另一种计算时间的方法是发射调制光源,并检测反射光的相位变化。通过混合技术可以很容易地测量相变。调制激光源比发射短脉冲更容易,混合技术比时间数字转换器更容易实现。另外,LED可以代替激光作为调制光源。因此,基于调制的ToF系统适用于低成本的ToF传感器。

摄像机阵列:

相机阵列法利用放置在不同位置的多个相机拍摄同一目标的多幅图像,根据几何结构计算深度图。在计算机视觉中,这也被称为“立体视图”或“立体”。最简单但最受欢迎的相机阵列是双相机,其中两个相机相隔一定距离,以模仿人眼。对于空间中的每个点,两个相机图像中的位置之间存在可测量的差异。然后,通过基本几何计算深度。

相机阵列的主要挑战是如何在多幅图像中找到匹配点。匹配点搜索涉及复杂的CV算法。目前深度学习可以帮你找到匹配点,准确率很高,但是它的计算成本很高。另外,还有很多点很难找到匹配点。比如上面两张瓦格纳雕像的视图中,鼻子是最容易匹配的点,因为它的特征很容易提取和比较。但是对于人脸的其他部位(尤其是无纹理的人脸)很难找到匹配点。当两个摄像机图像的遮挡不同时,匹配会更加复杂。目前,摄像机阵列作为深度传感器的鲁棒性仍然是一个具有挑战性的问题。

三种深度传感技术的比较

总性能

对于深度传感,最重要的指标是深度精度。该结构具有最好的深度精度,而相机阵列往往具有最大的深度误差。

就深度感知范围而言,结构光的范围最短,而ToF的范围取决于光源的发射功率。比如智能设备可能只需要几米,而自动驾驶汽车需要几百米。同样,相机阵列的测量范围取决于两个相机之间的空间。对于常规相机阵列,最佳性能测量范围通常在10m左右,尽管一些空间极其狭窄的特殊相机阵列可以测量1m左右的深度。

对于深度图分辨率,结构光的性能优于t of,因为结构光图案可以被精确控制,其反射图案可以被精确捕获。理论上,相机阵列具有良好的分辨率,但这是基于两幅图像中完美的点匹配。使用非理想点匹配(如光滑曲面)时,分辨率会降低。

最后,我们需要考虑环境亮度的限制。光线需要黑暗的环境,由于快速发展的背景去除技术,ToF传感器可以承受更大范围的环境亮度。对于相机阵列,明亮的环境效果最好。在黑暗的房间里,相机阵列拍摄的图像会变得嘈杂,对比度变得很差,因此点匹配变得极其困难,导致深度估计不准确。

费用

相机阵列的成本通常是最低的,其开发工作主要在软件方面。双摄像头解决方案已经广泛应用于许多智能设备和手机中。t of传感器的成本适中,而结构光的成本最高。但随着ToF的量产,预计在不久的将来其成本会大幅降低。

膨胀性

通过展望这些技术的潜力,我们可以更好地利用它们来满足未来的需求。

ToF是一种半导体技术,具有最好的可扩展性。其深度精度可以通过片上时间-数字转换器/混合电路来缩放,其深度图分辨率可以通过传感器尺寸来缩放,其测量范围可以通过光源功率/调制方案来缩放,并且其功耗可以通过半导体技术来扩展。

另一方面,结构光具有良好的可扩展性。光学系统是结构光的关键组成部分,可以用封装技术进行扩展(虽然没有半导体快)。

最后,缩放相机阵列主要取决于软件:我们将需要更好的算法来缩放其深度感测性能。与其说是工程问题,不如说更像是数学题,改进硬件帮助不大。即使使用分辨率更高的相机,点匹配的问题依然存在。

建议仅使用结构光来执行生物识别任务,因为它具有最佳的深度精度。游戏应用需要中等深度分辨率和快速响应,因此ToF传感器似乎是最合适的。对于其他应用(包括定位、识别、测量和增强现实),所有技术都可以做,只是有些技术比其他技术更适合特定的应用场景。例如,相机阵列可能最适合需要深度测量范围的开放空间中的AR应用,而ToF传感器最适合可以控制环境亮度的室内AR。