文章来源:SD科技制造 计算机视觉life”,选择“星标” 快速获得最新干货 以下内容来自从零开始机器人SLAM知识星球 每日更新内容 点击领取学习资料 → 机器人SLAM 学习资料大礼包 论文:CFP-SLAM: A Real-time Visual SLAM Based on Coarse-to-Fine Probability in Dynamic Environments 论文地址:https://arxiv.org/abs/2202.01938 作者单位:东北大学 环境中的动态因素会违反SLAM算法的静态环境假设,导致相机定位精度下降。最近,一些相关工作普遍采用语义约束和几何约束相结合的方式来处理动态物体,但是仍然会出现一些问题,比如实时性差,容易把人当成刚体,低动态性能差场景。在本文中,提出了一种基于目标检测和从粗到精静态概率的动态场景视觉SLAM算法CFP-SLAM。该算法结合语义约束和几何约束计算物体、关键点和地图点的静态概率,并将其作为权重参与相机位姿估计。广泛的评估表明,与最先进的动态 SLAM 方法相比,我们的方法在高动态和低动态场景中几乎可以取得最好的结果,并显示出相当高的实时性。本文贡献如下:1、基于EKF和匈牙利算法补偿漏检,同时使用DBSCAN聚类算法区分box的前景点和背景点。2、对象动态属性的区分。基于YOLOv5目标检测和几何约束,将目标运动属性分为高动态和低动态,作为先验信息提供给后续方法进行不同策略的处理,从而提高SLAM系统的鲁棒性和适应性。3、关键点从粗到细的静态概率。提出一种基于物体静态概率、DBSCAN聚类算法、对极约束和投影约束的两阶段关键点静态概率计算方法,解决非刚体局部运动引起的静态关键点误删问题。 文章来源:SD科技制造 转载声明: 本文为转载发布,仅代表原作者或原平台观点或立场,不代表我方观点。亚太菁英传媒及旗下澳洲门户网(ozportal.tv)仅提供信息发布平台,文章或有适当删改。对转载有异议和删稿要求的原著方,可联络info@ozportal.tv。 |