发布时间:2021-08-19 18:07:07来源:IEEE电气电子工程师
点击蓝字关注我们
SUBSCRIBEtoUS
Realscenes(top)arecomparedwithasemi-densedepthmapobtainedbyEOMVS(middle),inwhichbluerepresentsnearbyobjectsandredrepresentsdistantobjects.ThesedataarecontrastedwithLiDARmeasurements(bottom).
KOREAADVANCEDINSTITUTEOFSCIENCEANDTECHNOLOGY
想象一下,在恶劣的光线条件下,依旧能够看到快速移动的物体——所有这些都是以更宽的视角观察的。我们人类将不得不适应我们进化的视觉系统,但计算机视觉总在突破新的极限。在最近的一项进展中,韩国的一个研究团队将两种不同类型的摄像机组合在一起,以便更好地跟踪快速移动的物体,并创建具有挑战性环境的三维地图。
这种新设计中使用的第一种相机是基于事件的相机,它擅长捕捉快速移动的物体。第二种是全方位(或鱼眼)相机,可以捕捉非常宽的角度。
韩国高级科学技术研究所(KoreaAdvancedInstituteofScienceandTechnology)视觉智能实验室(VisualIntelligenceLab)副教授Kuk-JinYoon指出,这两种相机都具有计算机视觉所需的优势。“事件摄影机具有更少的延迟、更少的运动模糊、更高的动态范围和出色的能效,”他还表示,“另一方面,全方位摄像机(带有鱼眼镜头的摄像机)允许我们从更广阔的视野中获取视觉信息。”
他的团队试图将这些方法结合到一种称为基于事件的全向多视角立体(EOMVS)的新设计中。就硬件而言,这意味着将鱼眼镜头与基于事件的相机结合起来。
ThenewsystemusesanomnidirectionaleventcamerasetupconsistingofaDVXplorereventcamera(rear)andanEntaniyaFisheyelens(front).KOREAADVANCEDINSTITUTEOFSCIENCEANDTECHNOLOGY
其次,需要软件来重建高精度的三维场景。一种常用的方法是从不同的相机角度拍摄多幅图像,以重建3D信息。Yoon和他的同事使用了类似的方法,但新的EOMVS方法不是使用图像,而是使用修改后的事件摄影机捕获的事件数据重建3D空间。
研究人员利用激光雷达测量数据对他们的设计进行了测试,众所周知,激光雷达在绘制三维空间时具有极高的精度。研究结果发表在7月9日的《IEEE机器人与自动化快报(IEEERoboticsandAutomationLetters)》上。在他们的论文中,作者指出,他们相信这项工作是第一次尝试建立和校准全向事件摄影机,并使用它来解决视觉任务。他们在145°、160°和180°的视野下测试了该系统。
这项努力大体上是成功的。Yoon指出,EOMVS系统在绘制3D空间时非常精确,错误率为3%。事实证明,这种方法也满足了这种相机组合的所有期望特性。Yoon说:“使用EOMVS,我们可以在非常强烈的光照下检测和跟踪非常快速的移动对象,而不会在视野中丢失它们。从这个意义上讲,无人机3D地图可以成为EOMVS最有前途的现实应用。”
AlongwithtestingEOMVSinareal-worldsetting,Yoonetal.alsotestedthecamerasysteminsimulatedenvironmentsusingthe3DcomputergraphicssoftwareBlender.KOREAADVANCEDINSTITUTEOFSCIENCEANDTECHNOLOGY
他说他的团队计划将这种新设计商业化,并以此为基础。当前的EOMVS设计需要了解摄像机的位置,以便拼接和分析数据。但是研究人员对设计一种更灵活的设计感兴趣,这种设计不需要事先知道摄像机的确切位置。为了实现这一点,他们的目标是结合一种算法,在摄像机移动时估计摄像机的位置。
微信号|IEEE电气电子工程师
新浪微博|IEEE中国
·IEEE电气电子工程师学会·
往期推荐
推荐阅读
8-09IEEETransmitter
8-12FRANCESCHANCE
8-11IEEETransmitter
8-05MICHELLEHAMPSON