阿里彩票

  • <tr id='xOlLQu'><strong id='xOlLQu'></strong><small id='xOlLQu'></small><button id='xOlLQu'></button><li id='xOlLQu'><noscript id='xOlLQu'><big id='xOlLQu'></big><dt id='xOlLQu'></dt></noscript></li></tr><ol id='xOlLQu'><option id='xOlLQu'><table id='xOlLQu'><blockquote id='xOlLQu'><tbody id='xOlLQu'></tbody></blockquote></table></option></ol><u id='xOlLQu'></u><kbd id='xOlLQu'><kbd id='xOlLQu'></kbd></kbd>

    <code id='xOlLQu'><strong id='xOlLQu'></strong></code>

    <fieldset id='xOlLQu'></fieldset>
          <span id='xOlLQu'></span>

              <ins id='xOlLQu'></ins>
              <acronym id='xOlLQu'><em id='xOlLQu'></em><td id='xOlLQu'><div id='xOlLQu'></div></td></acronym><address id='xOlLQu'><big id='xOlLQu'><big id='xOlLQu'></big><legend id='xOlLQu'></legend></big></address>

              <i id='xOlLQu'><div id='xOlLQu'><ins id='xOlLQu'></ins></div></i>
              <i id='xOlLQu'></i>
            1. <dl id='xOlLQu'></dl>
              1. <blockquote id='xOlLQu'><q id='xOlLQu'><noscript id='xOlLQu'></noscript><dt id='xOlLQu'></dt></q></blockquote><noframes id='xOlLQu'><i id='xOlLQu'></i>
              2. 首页
              3. 装备资讯
              4. 热点专题
              5. 人物访谈
              6. 政府采购
              7. 产品库
              8. 求购库
              9. 企业库
              10. 品牌排行
              11. 院校库
              12. 案例·技术
              13. 会展信息
              14. 教育装备☆采购网首页 > 知识产权 > 专利 > CN103413352A

                基于RGBD多传感器融合的场景三维重建方法

                  摘要:本发明公开了一种基于RGBD多传感器融合的场景三维重建方法,用于解决现有场景三维重建方法重建速度低的技术问题。技术方案是首先采用SURF算法代替SIFT算法进行特征匹配,其次,根据观察中心的方法改进了子地图的划分标准,使得经多层图抽象后的图像金字塔更好的反映环境的拓扑结构,更有助于提高构建大场景三维地图的速度。同时,在地图生成部分,提出了使用经典的基于空间体的多帧融合方法来减少冗余点,提高了重建速度。经测试,本发明方法的重建々速度比背景技术提高了近两倍。
                • 专利类型发明专利
                • 申请人西北工业大学;
                • 发明人杨涛;张艳宁;范洁;王斯丙;
                • 地址710072 陕西省西安市友谊西路127号
                • 申请号CN201310323439.3
                • 申请时间2013年07月29日
                • 申请公布号CN103413352A
                • 申请公布时间2013年11月27日
                • 分类号G06T17/00(2006.01)I;