• 24小时机器人维修热线:020-82000787

子锐站内搜索 互联网
  • 广州子锐机器人技术有限公司
  • 服务热线:020-82000787(8:30-17:30)
  • 联系手机:15889988091(非工作时间)
  • 座机:020-82000787
  • 传真:020-32887675
  • 邮箱:gz@zr-robot.com
  • 广州市番禺区东环街金山谷创意八街1号109
  • 当前位置:首页 > 机器人资讯 > 三维重建技术让机器人拥有感知能力

三维重建技术让机器人拥有感知能力

时间:2017-12-12   点击:   来源:互联网   作者:匿名
简介:三维重建技术让机器人拥有感知能力 ZR-ROBOT子锐机器人维修网讯:看似很酷炫的技术,实际上并没有外界想得那么高大上。 Realsense之所以能够识别物体的深度信息,关键在于其具备三维重建功能。而能与Realsense齐名甚至是比Realsense更好的产品比比皆是,我……

三维重建技术让机器人拥有感知能力

ZR-ROBOT子锐机器人维修网讯:看似很酷炫的技术,实际上并没有外界想得那么高大上。

Realsense之所以能够识别物体的深度信息,关键在于其具备三维重建功能。而能与Realsense齐名甚至是比Realsense更好的产品比比皆是,我们所知道的无人机、机器人以及无人驾驶汽车当中的壁障或路径规划等功能都基于三维重建技术。

说到这里你也许会认为这些产品的技术原理并无差异,那么事实真是如此吗?

随着三维重建的技术方案在不断成熟,其方案也是层出不穷。目前,业界主流的方案就有视觉和激光雷达两大类,例如Realsense和Leapmotion以及Kinect就是用视觉方法来实现环境感知功能,而激光雷达则是无人驾驶和扫地机器人等领域的核心一环。那么为什么出现多种方案呢?它们到底有什么差异?

单目/双目视觉

这种技术是利用摄像头来获取象物体表面信息,根据摄像头的数量,我们可以分为单目视觉和双目视觉。

谈到三维重建技术,最早可以追溯到上世纪60年代,当时的研究人员已经展开了双目视觉的研究,正是因为双目立体视觉的出现,业界才向现代计算机视觉技术迈进了一大步,从以往二维像的分析导入到了三维场景,说双目视觉技术是三维重建的鼻祖并不为过。

其原理比较简单,双目视觉设备直接通过两个红外传感器/摄像头从不同角度同时获得被测物的两幅数字像,然后基于视差原理恢复出物体的三维几何信息,重建物体三维轮廓及位置,这种没有主动发射光源的也被叫做被动三维视觉。

然而,在有两个摄像头的情况下如何甄别是否是同一个信息点是一个难题,这对软件算法提出了很高的要求。在这样的背景下,单目视觉问世了。

单目视觉,顾名思义,只用一个摄像头来接收信息,因为比双目视觉系统少了一个接收端,所以在摄像头的另一侧需要一个结构光发射光源来填补空缺,相应的我们可以称之为主动视觉。英特尔Realsense是典型的单目摄像头结构光的代表。因为结构光发射的是一个已知的案,仅有的摄像头接收到了经过物体表面反射的案之后,就可以经过像处理计算出和原始案的差异,最后就实现了三维重构。

使用视觉方法做三维重构的短板很明显,单目和双目鲁棒性都很差,这种系统的精度会随着周围环境的变化而受到影响,我们分别以双目和单目视觉举个例子:目前好的双目视觉方案精度可以做到几毫米甚至是零点几毫米,但这是在最佳环境下的数值,当外界光线由强变弱时,双目视觉的精度会大打折扣,因为双目摄像头感知像的能力会变弱,获取的案也自然而然变得越来越模糊,这与手机摄像头的拍摄原理类似。

而单目视觉恰恰相反,结构光的硬伤是见光死,它只适合光线较暗的环境,如果周围的光线很强,摄像头就很难准确的识别亮点,所以结构光法到了室外就显得有些水土不服了。

看到这里,也许你就理解了为什么英特尔选择在一个光线很暗的环境下演示搭载Realsense模组的昊翔TyphoonH壁障功能。说句题外话,因为单目和双目有本质的区别,最近闹得不可开交的大疆(双目视觉原理)和Yuneec昊翔侵权案被业内人士认为并不成立。

无论是单目和双目,其测距方法都是基于三角测距法,测距范围最大只能做到5-8m,这就决定了视觉方法不适合无人驾驶汽车,其最大的应用场景还是室内扫地机器人以及游戏设备。另外,这种方案的硬件成本只有几百元人民币,非常适合消费类的电子产品。

因为采用视觉方案的产品有很多,我们只以Realsense为例看下视觉方案的产品特性。

根据英特尔的信息,Realsense有近距离使用和远距离使用两个版本,近距离版本内置了F2003D像处理器的芯片,一个红外激光发射器和一个接收像信息的红外传感器,其采用的是典型的单目结构光的方案;远距离版本则采用了R2003D像处理芯片,另外比近距离版本多配置了一个红外传感器(双目),这意味着该版本直接模仿人眼的视差原理,通过打出一束红外光,以左红外传感器和右红外传感器追踪这束光的位置,然后用三角定位原理来计算出3D像中的深度信息。后者每秒可以采集1000万个3D点,可以识别跟踪手上的22个关节点,子锐机器人维修,根据手部运动来实现手势操控,并能识别面部的78个特征点,实现面部解锁、表情识别。

除了Realsense,Kinect、和LeapMotion以及国内的奥比中光等都用的是基于视觉的三维建模方案,当然任何一家厂商的方案都有自己的特点,根据各自应用场景的不同都有一定的差异。

激光雷达

既然视觉方案存在这么多的缺陷,就必然需要另外一种技术来完成它不能完成的使命,激光雷达就是其中之一。作为机器人、无人机和无人驾驶领域的新宠,激光雷达是这两年才开始火起来的。

激光雷达之所以能够受到业界的追捧,很关键的原因就是激光解决了上述视觉方案中受光线强度影响的问题,如果在室外,用它来实现壁障、路径规划等功能再合适不过了。

和视觉方式一样,激光雷达实现三维重建大体也可以分为两类,一类是基于三角测量法,另一种被称为ToF测距法,这两种方式不仅仅是文字和原理上的差异,二者的性能以及价格都不在一个等级上。

基于三角测量算法的激光雷达多为非实时性激光雷法,其原理如下:激光从激光头发射,到物体表面之后会形成一条反射光,另一侧的阵列CCD可以实时感应到反射回来的信息,因为激光头的发射角度α和信号接收端的角度β是已知的,激光头和CCD的距离为固定的,根据正弦定理就可以算出雷达与物体的距离。这种方案技术门槛不高,开发周期也不长,硬件成本可以做到几百元的级别。

既攻克了视觉方案的瓶颈,又继承了其成本低廉的优势,这样的方案看似很完美。但它依然存在两个缺陷:首先,基于三角测距法的激光雷达没有摆脱测距范围短的缺陷,大多数产品都在5-6m范围内;其次,因为发射的是单点激光,再加上一般厂商的激光出点数只有4k左右,其重构三维信息的速度会比较慢。如果应用在扫地机器人上,子锐机器人维修,这样的参数是绰绰有余的,子锐机器人维修,目前国内的思岚科技和国外的Neato用的就是这一方案。

ToF(TimeOfFlight)的原理是通过测量光脉冲之间的传输延迟时间来计算对象物体的距离。使用ToF的激光雷达在测出物体轮廓边沿与设备间的相对距离后,这些轮廓信息可组成点云数据,最终得出3D环境地,这种激光雷达的精度可以做到厘米级别。它是目前最适合无人驾驶汽车的技术之一,谷歌无人驾驶汽车上使用的就是国外厂商Velodyne的64线实时性激光雷达。

这种激光雷达在无人驾驶汽车当中充当了眼睛的角色。Velodyne的员工曾拆解够上述这款64线激光雷达,其硬件构造由发射系统、接收系统、信息处理等部分组成(如下)。

免责声明:本网部分文章和信息来源于互联网,本网转载出于传递更多信息和学习之目的。如转载稿涉及版权等问题,请立即联系网站所有人,我们会予以更改或删除相关文章,保证您的权利。
扫二维码手机浏览
  • 广州子锐机器人技术有限公司
  • 地址:广州市番禺区东环街金山谷创意八街1号109
  • 电话:15889988091
  • 传真:

Copyright © 广州子锐机器人技术有限公司版权所有 www.zr-robot.com     网站备案ICP:粤ICP备15095857号

留电回访
  • 您的姓名
  • 联系电话
  • 需要维修或帮助的产品型号及说明
  •  
24小时工业机器人维修热线:020-82000787(首次维修半价优惠)