1. 首页
  2. 数据库
  3. 其它
  4. CodeSLAM:CodeSLAM的实现—学习密集的Visual SLAM论文的紧凑可优化表示形式(https 源码

CodeSLAM:CodeSLAM的实现—学习密集的Visual SLAM论文的紧凑可优化表示形式(https 源码

上传者: 2021-05-08 14:12:27上传 ZIP文件 11.45KB 热度 7次
CodeSLAM CodeSLAM的PyTorch实现。 概括 它试图解决/解决的问题 真实3D感知系统中的几何图形表示。 可能带有语义标签的密集表示是高维的,不适合概率推断。 稀疏表示,可以避免这些问题,但仅捕获部分场景信息。 新方法/解决方案 新的紧凑但密集的场景几何表示,以来自单个图像的强度数据为条件,并由包含少量参数的代码生成。 每个关键帧都可以生成一个深度图,但是可以与姿势变量和重叠关键帧的代码一起对代码进行优化,以实现全局一致性。 介绍 由于不确定性的传播对于很大的自由度很快变得难以处理,因此SLAM的方法分为两类: 稀疏SLAM,通过稀疏特征集表示几何 密集SLAM,它尝试检索环境的更完整描述。 自然场景的几何表现出高度的有序性,因此我们可能不需要大量的参数来表示它。 除此之外,还可以将场景分解为一组语义对象(例如椅子)以及一些内部参数(例如椅子的大小,没有腿)
用户评论